論文の概要: Make Domain Shift a Catastrophic Forgetting Alleviator in Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2501.00237v1
- Date: Tue, 31 Dec 2024 03:02:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:16:00.697438
- Title: Make Domain Shift a Catastrophic Forgetting Alleviator in Class-Incremental Learning
- Title(参考訳): クラスインクリメンタルラーニングにおけるドメインシフトのカタストロフィック予測
- Authors: Wei Chen, Yi Zhou,
- Abstract要約: クラス増分学習タスクに対処するため,DisCo というシンプルな手法を提案する。
DisCoは、既存の最先端のクラス増分学習手法に簡単に統合できる。
実験結果から,本手法を各種CIL法に組み込むことにより,大幅な性能向上が得られた。
- 参考スコア(独自算出の注目度): 9.712093262192733
- License:
- Abstract: In the realm of class-incremental learning (CIL), alleviating the catastrophic forgetting problem is a pivotal challenge. This paper discovers a counter-intuitive observation: by incorporating domain shift into CIL tasks, the forgetting rate is significantly reduced. Our comprehensive studies demonstrate that incorporating domain shift leads to a clearer separation in the feature distribution across tasks and helps reduce parameter interference during the learning process. Inspired by this observation, we propose a simple yet effective method named DisCo to deal with CIL tasks. DisCo introduces a lightweight prototype pool that utilizes contrastive learning to promote distinct feature distributions for the current task relative to previous ones, effectively mitigating interference across tasks. DisCo can be easily integrated into existing state-of-the-art class-incremental learning methods. Experimental results show that incorporating our method into various CIL methods achieves substantial performance improvements, validating the benefits of our approach in enhancing class-incremental learning by separating feature representation and reducing interference. These findings illustrate that DisCo can serve as a robust fashion for future research in class-incremental learning.
- Abstract(参考訳): クラスインクリメンタルラーニング(CIL)の領域では、破滅的な忘れの問題を軽減することが重要な課題である。
本稿では,ドメインシフトをCILタスクに組み込むことで,忘れる確率を大幅に削減する。
包括的研究により、ドメインシフトを取り入れることで、タスク間の特徴分布の分離がより明確になり、学習過程におけるパラメータ干渉を減らすことが示されている。
この観測に触発されて、我々はCILタスクに対処する単純なDisCoという手法を提案する。
DisCoは、コントラスト学習を利用した軽量なプロトタイププールを導入し、現在のタスクに対して、以前のタスクと異なる特徴分散を促進し、タスク間の干渉を効果的に軽減する。
DisCoは、既存の最先端のクラス増分学習手法に簡単に統合できる。
実験結果から,提案手法を各種CIL手法に組み込むことにより,特徴表現の分離と干渉低減によるクラス増分学習の強化におけるアプローチのメリットを検証し,大幅な性能向上を実現することが示された。
これらの結果から,DisCoはクラス増分学習における今後の研究において,堅牢な方法として機能する可能性が示唆された。
関連論文リスト
- CLOSER: Towards Better Representation Learning for Few-Shot Class-Incremental Learning [52.63674911541416]
FSCIL(Few-shot class-incremental Learning)は、過剰適合や忘れなど、いくつかの課題に直面している。
FSCILの独特な課題に取り組むため、ベースクラスでの表現学習に重点を置いている。
より制限された機能空間内で機能の拡散を確保することで、学習された表現が、伝達可能性と識別可能性のバランスを良くすることが可能になることが分かりました。
論文 参考訳(メタデータ) (2024-10-08T02:23:16Z) - Joint Input and Output Coordination for Class-Incremental Learning [84.36763449830812]
本稿では,これらの問題に対処するためのJIOC機構を提案する。
このメカニズムは、出力スコアの勾配に応じて異なるカテゴリのデータに異なる重みを割り当てる。
メモリストレージを使用するさまざまなインクリメンタルな学習アプローチに組み込むことができる。
論文 参考訳(メタデータ) (2024-09-09T13:55:07Z) - Mitigating Interference in the Knowledge Continuum through Attention-Guided Incremental Learning [17.236861687708096]
Attention-Guided Incremental Learning' (AGILE)は、タスク間の干渉を効果的に軽減するために、コンパクトなタスク注意を組み込んだリハーサルベースのCLアプローチである。
AGILEは、タスク干渉を緩和し、複数のCLシナリオにおいてリハーサルベースのアプローチより優れていることで、一般化性能を著しく向上する。
論文 参考訳(メタデータ) (2024-05-22T20:29:15Z) - Improving Forward Compatibility in Class Incremental Learning by Increasing Representation Rank and Feature Richness [3.0620294646308754]
本稿では,前方互換性向上を目的としたRFR法を提案する。
本研究は,破滅的忘れ込みを緩和しつつ,新規タスク性能を高めるためのアプローチの有効性を実証するものである。
論文 参考訳(メタデータ) (2024-03-22T11:14:30Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Clustering-based Domain-Incremental Learning [4.835091081509403]
連続学習における鍵となる課題は、いわゆる「破滅的な忘れ問題」である。
動的に更新されたサンプルや勾配の有限プールに対するオンラインクラスタリングに基づくアプローチを提案する。
提案手法の有効性と将来性を示す。
論文 参考訳(メタデータ) (2023-09-21T13:49:05Z) - Knowledge Diffusion for Distillation [53.908314960324915]
知識蒸留(KD)における教師と学生の表現ギャップ
これらの手法の本質は、ノイズ情報を捨て、その特徴の貴重な情報を蒸留することである。
DiffKDと呼ばれる新しいKD手法を提案し、拡散モデルを用いて特徴を明示的に識別し一致させる。
論文 参考訳(メタデータ) (2023-05-25T04:49:34Z) - Contrastive Continual Learning with Feature Propagation [32.70482982044965]
連続した機械学習者は、異なるタスク間でドメインやクラスシフトを伴うタスクのストリームを寛大に学習する。
本稿では,複数の連続学習シナリオを処理可能な特徴伝達に基づくコントラスト型連続学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-03T04:55:28Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。