論文の概要: Happy: A Debiased Learning Framework for Continual Generalized Category Discovery
- arxiv url: http://arxiv.org/abs/2410.06535v2
- Date: Thu, 10 Oct 2024 03:10:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 05:09:09.769856
- Title: Happy: A Debiased Learning Framework for Continual Generalized Category Discovery
- Title(参考訳): Happy: 継続的に一般化されたカテゴリ発見のためのデバイアスドラーニングフレームワーク
- Authors: Shijie Ma, Fei Zhu, Zhun Zhong, Wenzhuo Liu, Xu-Yao Zhang, Cheng-Lin Liu,
- Abstract要約: 本稿では,C-GCD(Continuous Generalized Category Discovery)の未探索課題について考察する。
C-GCDは、学習済みのクラスを認識する能力を維持しながら、ラベルのないデータから新しいクラスを漸進的に発見することを目的としている。
本稿では,ハードネスを意識したプロトタイプサンプリングとソフトエントロピー正規化を特徴とする,偏りのある学習フレームワークであるHappyを紹介する。
- 参考スコア(独自算出の注目度): 54.54153155039062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Constantly discovering novel concepts is crucial in evolving environments. This paper explores the underexplored task of Continual Generalized Category Discovery (C-GCD), which aims to incrementally discover new classes from unlabeled data while maintaining the ability to recognize previously learned classes. Although several settings are proposed to study the C-GCD task, they have limitations that do not reflect real-world scenarios. We thus study a more practical C-GCD setting, which includes more new classes to be discovered over a longer period, without storing samples of past classes. In C-GCD, the model is initially trained on labeled data of known classes, followed by multiple incremental stages where the model is fed with unlabeled data containing both old and new classes. The core challenge involves two conflicting objectives: discover new classes and prevent forgetting old ones. We delve into the conflicts and identify that models are susceptible to prediction bias and hardness bias. To address these issues, we introduce a debiased learning framework, namely Happy, characterized by Hardness-aware prototype sampling and soft entropy regularization. For the prediction bias, we first introduce clustering-guided initialization to provide robust features. In addition, we propose soft entropy regularization to assign appropriate probabilities to new classes, which can significantly enhance the clustering performance of new classes. For the harness bias, we present the hardness-aware prototype sampling, which can effectively reduce the forgetting issue for previously seen classes, especially for difficult classes. Experimental results demonstrate our method proficiently manages the conflicts of C-GCD and achieves remarkable performance across various datasets, e.g., 7.5% overall gains on ImageNet-100. Our code is publicly available at https://github.com/mashijie1028/Happy-CGCD.
- Abstract(参考訳): 進化する環境において、新しい概念を常に発見することが不可欠である。
本稿では,学習済みのクラスを認識する能力を維持しつつ,ラベルのないデータから新たなクラスを段階的に発見することを目的としたC-GCD(Continuous Generalized Category Discovery)の課題について検討する。
C-GCDタスクを研究するためにいくつかの設定が提案されているが、現実のシナリオを反映しない制限がある。
そこで我々は,より実用的なC-GCD設定について検討し,過去のクラスサンプルを格納することなく,より長い期間にわたって発見される新しいクラスを含める。
C-GCDでは、モデルは当初、既知のクラスのラベル付きデータに基づいてトレーニングされ、その後、古いクラスと新しいクラスの両方を含むラベル付きデータでモデルが供給される複数の段階が続く。
主な課題は、新しいクラスを発見し、古いクラスを忘れないようにするという、2つの相反する目標である。
対立を掘り下げて、モデルが予測バイアスや硬度バイアスの影響を受けやすいと認識します。
これらの問題に対処するため,Happyという脱バイアス学習フレームワークを導入し,ハードネス対応のプロトタイプサンプリングとソフトエントロピー正規化を特徴とする。
予測バイアスについて、まずクラスタリング誘導初期化を導入し、ロバストな特徴を提供する。
さらに,新しいクラスに適切な確率を割り当てるソフトエントロピー正規化を提案し,新しいクラスのクラスタリング性能を大幅に向上させることができる。
ハーネスバイアスに対しては,特に難解なクラスにおいて,これまで見てきたクラスを忘れる問題を効果的に軽減できる,難易度対応型プロトタイプサンプリングを提案する。
実験により,提案手法はC-GCDのコンフリクトを良好に管理し,ImageNet-100では7.5%のゲインを達成できた。
私たちのコードはhttps://github.com/mashijie1028/Happy-CGCDで公開されています。
関連論文リスト
- PASS++: A Dual Bias Reduction Framework for Non-Exemplar Class-Incremental Learning [49.240408681098906]
クラスインクリメンタルラーニング(CIL)は,旧クラスの識別性を維持しつつ,新たなクラスを段階的に認識することを目的としている。
既存のCILメソッドの多くは、例えば、古いデータの一部を格納して再トレーニングする例がある。
本稿では、入力空間における自己教師付き変換(SST)と深い特徴空間におけるプロトタイプ拡張(protoAug)を利用する、単純で斬新な二重バイアス低減フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-19T05:03:16Z) - Towards Non-Exemplar Semi-Supervised Class-Incremental Learning [33.560003528712414]
クラス増分学習は、古いクラスの識別性を保ちながら、新しいクラスを徐々に認識することを目的としている。
コントラスト学習と半教師付きインクリメンタルプロトタイプ分類器(Semi-IPC)を用いた非経験的半教師付きCILフレームワークを提案する。
Semi-IPCは教師なしの正規化で各クラスのプロトタイプを学習し、部分的にラベル付けされた新しいデータからモデルを漸進的に学習することを可能にする。
論文 参考訳(メタデータ) (2024-03-27T06:28:19Z) - Active Generalized Category Discovery [60.69060965936214]
GCD(Generalized Category Discovery)は、新しいクラスと古いクラスの未ラベルのサンプルをクラスタ化するための取り組みである。
我々は,能動的学習の精神を取り入れて,能動的一般化カテゴリー発見(AGCD)という新たな設定を提案する。
提案手法は, 汎用および微粒なデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-07T07:12:24Z) - MetaGCD: Learning to Continually Learn in Generalized Category Discovery [26.732455383707798]
事前に定義されたクラスでトレーニングされたモデルが、ラベルのないデータに絶えず遭遇する実世界のシナリオを考察する。
目標は、既知のクラスのパフォーマンスを維持しながら、新しいクラスを継続的に発見することである。
そこで我々はMetaGCDと呼ばれる手法を提案し,忘れることなく漸進的に発見する方法を学習する。
論文 参考訳(メタデータ) (2023-08-21T22:16:49Z) - Dynamic Conceptional Contrastive Learning for Generalized Category
Discovery [76.82327473338734]
Generalized category discovery (GCD) は、部分的にラベル付けされたデータを自動でクラスタリングすることを目的としている。
ラベル付きデータには、ラベル付きデータの既知のカテゴリだけでなく、新しいカテゴリのインスタンスも含まれている。
GCDの効果的な方法の1つは、ラベルなしデータの識別表現を学習するために自己教師付き学習を適用することである。
本稿では,クラスタリングの精度を効果的に向上する動的概念コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T14:04:39Z) - Novel Class Discovery without Forgetting [72.52222295216062]
我々は NCDwF: Novel Class Discovery without Forgetting の新たな実用的問題設定を特定し,定式化する。
ラベルのないデータから新しいカテゴリのインスタンスを段階的に発見する機械学習モデルを提案する。
CIFAR-10, CIFAR-100, ImageNet-1000に基づく実験プロトコルを導入し, 知識保持と新しいクラス発見のトレードオフを測定する。
論文 参考訳(メタデータ) (2022-07-21T17:54:36Z) - Class-incremental Learning with Rectified Feature-Graph Preservation [24.098892115785066]
本論文の中心的なテーマは,逐次的な段階を経る新しいクラスを学習することである。
旧知識保存のための重み付きユークリッド正規化を提案する。
新しいクラスを効果的に学習するために、クラス分離を増やすためにバイナリクロスエントロピーでどのように機能するかを示す。
論文 参考訳(メタデータ) (2020-12-15T07:26:04Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。