論文の概要: Exploiting Fine-Grained Prototype Distribution for Boosting Unsupervised Class Incremental Learning
- arxiv url: http://arxiv.org/abs/2408.10046v1
- Date: Mon, 19 Aug 2024 14:38:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 15:52:57.639571
- Title: Exploiting Fine-Grained Prototype Distribution for Boosting Unsupervised Class Incremental Learning
- Title(参考訳): 教師なし授業増進学習のための微粒化原型分布の探索
- Authors: Jiaming Liu, Hongyuan Liu, Zhili Qin, Wei Han, Yulu Fan, Qinli Yang, Junming Shao,
- Abstract要約: 本稿では,教師なしクラスインクリメンタルラーニング(UCIL)の課題について検討する。
この問題に対処することの本質は、包括的特徴表現を効果的に捉え、未知の新しいクラスを発見することである。
本稿では,新しいクラスと既存クラスの重複を最小限に抑え,歴史的知識を保存し,破滅的な忘れの現象を緩和する戦略を提案する。
- 参考スコア(独自算出の注目度): 13.17775851211893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The dynamic nature of open-world scenarios has attracted more attention to class incremental learning (CIL). However, existing CIL methods typically presume the availability of complete ground-truth labels throughout the training process, an assumption rarely met in practical applications. Consequently, this paper explores a more challenging problem of unsupervised class incremental learning (UCIL). The essence of addressing this problem lies in effectively capturing comprehensive feature representations and discovering unknown novel classes. To achieve this, we first model the knowledge of class distribution by exploiting fine-grained prototypes. Subsequently, a granularity alignment technique is introduced to enhance the unsupervised class discovery. Additionally, we proposed a strategy to minimize overlap between novel and existing classes, thereby preserving historical knowledge and mitigating the phenomenon of catastrophic forgetting. Extensive experiments on the five datasets demonstrate that our approach significantly outperforms current state-of-the-art methods, indicating the effectiveness of the proposed method.
- Abstract(参考訳): オープンワールドシナリオの動的な性質は、クラスインクリメンタルラーニング(CIL)により多くの注目を集めている。
しかし、既存のCIL手法では、訓練過程を通して完全に基幹のラベルが利用できることを前提としており、この仮定は実践的な応用ではまれである。
そこで本研究では,教師なしクラスインクリメンタルラーニング(UCIL)の課題について検討する。
この問題に対処することの本質は、包括的特徴表現を効果的に捉え、未知の新しいクラスを発見することである。
これを実現するために、我々はまず、きめ細かいプロトタイプを利用してクラス分布の知識をモデル化する。
その後、教師なしのクラス発見を強化するため、粒度アライメント技術が導入される。
さらに,新しいクラスと既存クラスの重複を最小限に抑え,歴史的知識を保存し,破滅的な忘れの現象を緩和する戦略を提案した。
5つのデータセットに対する大規模な実験により,提案手法の有効性が示され,現在の最先端手法を著しく上回っていることが示された。
関連論文リスト
- Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Few-Shot Class-Incremental Learning with Prior Knowledge [94.95569068211195]
本稿では,事前学習モデルの一般化能力を高めるために,先行知識を用いた学習(LwPK)を提案する。
実験結果から,LwPKは破滅的忘れ込みに対するモデルレジリエンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-02T08:05:35Z) - NTKCPL: Active Learning on Top of Self-Supervised Model by Estimating
True Coverage [3.4806267677524896]
ニューラル・タンジェント・カーネル・クラスタリング・プシュード・ラベル(NTKCPL)の新しいアクティブ・ラーニング・ストラテジーを提案する。
擬似ラベルとNTK近似を用いたモデル予測に基づいて経験的リスクを推定する。
提案手法を5つのデータセット上で検証し,ほとんどの場合,ベースライン法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-07T01:43:47Z) - Large-scale Pre-trained Models are Surprisingly Strong in Incremental Novel Class Discovery [76.63807209414789]
我々は,クラスiNCDにおける現状問題に挑戦し,クラス発見を継続的に,真に教師なしで行う学習パラダイムを提案する。
凍結したPTMバックボーンと学習可能な線形分類器から構成される単純なベースラインを提案する。
論文 参考訳(メタデータ) (2023-03-28T13:47:16Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Prototypical quadruplet for few-shot class incremental learning [24.814045065163135]
改良されたコントラスト損失を用いて,より優れた埋め込み空間を同定し,分類ロバスト性を向上させる手法を提案する。
我々のアプローチは、新しいクラスで訓練された場合でも、埋め込み空間で以前獲得した知識を保っている。
提案手法の有効性は,新しいクラスでモデルを訓練した後,組込み空間がそのままであることを示すとともに,各セッションの精度で既存の最先端アルゴリズムより優れていることを示すことで実証する。
論文 参考訳(メタデータ) (2022-11-05T17:19:14Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z) - A Survey on Deep Semi-supervised Learning [51.26862262550445]
まず,既存の手法を分類した深層半指導学習の分類法を提案する。
次に、損失の種類、貢献度、アーキテクチャの違いの観点から、これらのメソッドを詳細に比較します。
論文 参考訳(メタデータ) (2021-02-28T16:22:58Z) - A Comprehensive Approach to Unsupervised Embedding Learning based on AND
Algorithm [18.670975246545208]
教師なしの埋め込み学習は、手動ラベルを必要とせずに、データから優れた表現を抽出することを目的としている。
本稿では,現在の最先端モデルを拡張したSuper-ANDと呼ばれる非教師なしの埋め込み手法を提案する。
Super-ANDは既存の全てのアプローチを上回り、CIFAR-10の画像分類タスクで89.2%の精度を達成する。
論文 参考訳(メタデータ) (2020-02-26T13:22:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。