論文の概要: Specifying What You Know or Not for Multi-Label Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2503.17017v1
- Date: Fri, 21 Mar 2025 10:26:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:57:55.710046
- Title: Specifying What You Know or Not for Multi-Label Class-Incremental Learning
- Title(参考訳): マルチラベル・クラスインクリメンタル・ラーニングにおける知っていることや知らないことの特定
- Authors: Aoting Zhang, Dongbao Yang, Chang Liu, Xiaopeng Hong, Yu Zhou,
- Abstract要約: MLCIL(Multi-label class-incremental learning)の主な課題は、モデルが既知の知識と未知の知識を明確に区別できないことである。
この曖昧さは、モデルが歴史的知識を保持し、現在のクラスをマスターし、将来の学習に備える能力を妨げます。
- 参考スコア(独自算出の注目度): 26.607584252708868
- License:
- Abstract: Existing class incremental learning is mainly designed for single-label classification task, which is ill-equipped for multi-label scenarios due to the inherent contradiction of learning objectives for samples with incomplete labels. We argue that the main challenge to overcome this contradiction in multi-label class-incremental learning (MLCIL) lies in the model's inability to clearly distinguish between known and unknown knowledge. This ambiguity hinders the model's ability to retain historical knowledge, master current classes, and prepare for future learning simultaneously. In this paper, we target at specifying what is known or not to accommodate Historical, Current, and Prospective knowledge for MLCIL and propose a novel framework termed as HCP. Specifically, (i) we clarify the known classes by dynamic feature purification and recall enhancement with distribution prior, enhancing the precision and retention of known information. (ii) We design prospective knowledge mining to probe the unknown, preparing the model for future learning. Extensive experiments validate that our method effectively alleviates catastrophic forgetting in MLCIL, surpassing the previous state-of-the-art by 3.3% on average accuracy for MS-COCO B0-C10 setting without replay buffers.
- Abstract(参考訳): 既存のクラスインクリメンタルラーニングは、主にシングルラベル分類タスクのために設計されており、これは不完全ラベルを持つサンプルの学習目標に固有の矛盾があるため、マルチラベルシナリオに不適合である。
我々は、MLCIL(Multi-label class-incremental Learning)におけるこの矛盾を克服する主な課題は、モデルが既知の知識と未知の知識を明確に区別できないことであると主張している。
この曖昧さは、モデルが歴史的知識を保持し、現在のクラスをマスターし、将来の学習に備える能力を妨げます。
本稿では,MLCILの歴史的・現在的・展望的知識に適合するかどうかの特定を目標とし,HCPと呼ばれる新しい枠組みを提案する。
具体的には
i) 既知のクラスは, 動的特徴浄化と, 事前分布によるリコール強化により明らかにし, 既知の情報の精度と保持性を高めた。
(二)未知を探索するために先進的な知識マイニングを設計し、将来の学習のためのモデルを作成する。
大規模な実験により,MS-COCO B0-C10のバッファを再生せずに平均精度を3.3%上回り,MLCILの破滅的忘れを効果的に軽減できることが確認された。
関連論文リスト
- Towards Robust Incremental Learning under Ambiguous Supervision [22.9111210739047]
インクリメンタル部分ラベル学習(IPLL)という,弱教師付き学習パラダイムを提案する。
IPLLは、新しいクラスが時々出現する、シーケンシャルな完全教師付き学習問題に対処することを目的としている。
我々は,代表性と多様性を維持しつつ,明瞭なサンプルを収集するメモリ再生技術を開発した。
論文 参考訳(メタデータ) (2025-01-23T11:52:53Z) - Gradual Learning: Optimizing Fine-Tuning with Partially Mastered Knowledge in Large Language Models [51.20499954955646]
大規模言語モデル(LLM)は、事前学習期間中に大量のテキストコーパスから膨大な量の知識を取得する。
微調整や推論のような後段では、モデルは初期訓練でカバーされていない知識に遭遇する可能性がある。
本稿では,モデル全体のテスト精度と知識保持性を改善するための2段階の微調整戦略を提案する。
論文 参考訳(メタデータ) (2024-10-08T08:35:16Z) - Few-Shot Class-Incremental Learning with Prior Knowledge [94.95569068211195]
本稿では,事前学習モデルの一般化能力を高めるために,先行知識を用いた学習(LwPK)を提案する。
実験結果から,LwPKは破滅的忘れ込みに対するモデルレジリエンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-02T08:05:35Z) - Knowledge Restore and Transfer for Multi-label Class-Incremental
Learning [34.378828633726854]
マルチラベルクラス増分学習(MLCIL)のための知識復元・伝達(KRT)フレームワークを提案する。
KRTには、古いクラスの知識を復元するための動的擬似ラベル(DPL)モジュールと、セッション固有の知識を保存し、古いクラスの知識を新しいモデルに十分に転送するインクリメンタルなクロスアテンション(ICA)モジュールが含まれている。
MS-COCOとPASCALのVOCデータセットによる実験結果から,認識性能の向上と忘れの軽減を目的とした手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-26T15:34:05Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Novel Class Discovery without Forgetting [72.52222295216062]
我々は NCDwF: Novel Class Discovery without Forgetting の新たな実用的問題設定を特定し,定式化する。
ラベルのないデータから新しいカテゴリのインスタンスを段階的に発見する機械学習モデルを提案する。
CIFAR-10, CIFAR-100, ImageNet-1000に基づく実験プロトコルを導入し, 知識保持と新しいクラス発見のトレードオフを測定する。
論文 参考訳(メタデータ) (2022-07-21T17:54:36Z) - Queried Unlabeled Data Improves and Robustifies Class-Incremental
Learning [133.39254981496146]
クラス増分学習(Class-incremental Learning, CIL)は、新たに追加されたクラスを学習することと、以前に学習したクラス知識を保存することの間の悪名高いジレンマに悩まされる。
我々は、連続学習において「自由」な外部ラベル付きデータクエリを活用することを提案する。
CIL-QUDを堅牢化したバージョンにシームレスに拡張する。
論文 参考訳(メタデータ) (2022-06-15T22:53:23Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - Self-Supervised Learning Aided Class-Incremental Lifelong Learning [17.151579393716958]
クラスインクリメンタルラーニング(Class-IL)における破滅的忘れの問題について検討する。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-06-10T15:15:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。