論文の概要: Proxy-Anchor and EVT-Driven Continual Learning Method for Generalized Category Discovery
- arxiv url: http://arxiv.org/abs/2504.08550v1
- Date: Fri, 11 Apr 2025 14:01:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:19:59.261280
- Title: Proxy-Anchor and EVT-Driven Continual Learning Method for Generalized Category Discovery
- Title(参考訳): 一般化カテゴリー探索のためのプロキシアンカーとEVT駆動型連続学習法
- Authors: Alireza Fathalizadeh, Roozbeh Razavi-Far,
- Abstract要約: 連続的な一般化されたカテゴリ発見は、入ってくるデータバッチにおける新しいカテゴリを継続的に発見し、学習することを目的としている。
本稿では,プロキシアンカーとExtreme Value Theoryを統合し,プロキシ周辺の境界を定義する手法を提案する。
また,新しいEVTに基づく損失関数を導入し,学習表現を強化する。
- 参考スコア(独自算出の注目度): 2.693342141713236
- License:
- Abstract: Continual generalized category discovery has been introduced and studied in the literature as a method that aims to continuously discover and learn novel categories in incoming data batches while avoiding catastrophic forgetting of previously learned categories. A key component in addressing this challenge is the model's ability to separate novel samples, where Extreme Value Theory (EVT) has been effectively employed. In this work, we propose a novel method that integrates EVT with proxy anchors to define boundaries around proxies using a probability of inclusion function, enabling the rejection of unknown samples. Additionally, we introduce a novel EVT-based loss function to enhance the learned representation, achieving superior performance compared to other deep-metric learning methods in similar settings. Using the derived probability functions, novel samples are effectively separated from previously known categories. However, category discovery within these novel samples can sometimes overestimate the number of new categories. To mitigate this issue, we propose a novel EVT-based approach to reduce the model size and discard redundant proxies. We also incorporate experience replay and knowledge distillation mechanisms during the continual learning stage to prevent catastrophic forgetting. Experimental results demonstrate that our proposed approach outperforms state-of-the-art methods in continual generalized category discovery scenarios.
- Abstract(参考訳): 従来学習されていたカテゴリの破滅的な忘れを回避しつつ、入ってくるデータバッチにおける新しいカテゴリを継続的に発見し、学習することを目的とした手法として、連続的な一般化されたカテゴリ発見が文献で紹介され、研究されている。
この課題に対処する上で重要な要素は、EVT(Extreme Value Theory)が効果的に採用されている新しいサンプルを分離する能力である。
本研究では,EVTとプロキシアンカーを統合した新しい手法を提案する。
さらに,EVTに基づく新たな損失関数を導入し,学習表現を向上し,他の深度学習法と比較して優れた性能を実現する。
導出された確率関数を用いて、新しいサンプルは、これまで知られていたカテゴリから効果的に分離される。
しかし、これらの新しいサンプルのカテゴリ発見は、しばしば新しいカテゴリの数を過大評価することがある。
この問題を軽減するために,モデルサイズを削減し,冗長なプロキシを破棄するEVTベースの新しいアプローチを提案する。
また,破滅的な忘れ込みを防止するために,継続学習段階における経験的リプレイと知識蒸留機構を取り入れた。
実験により,提案手法は連続的な一般化されたカテゴリ発見シナリオにおいて最先端の手法よりも優れていることが示された。
関連論文リスト
- CONCLAD: COntinuous Novel CLAss Detector [5.857367484128867]
本稿では,展開後データにおける新規クラス検出の問題に対する包括的解決法を提案する。
我々は、既知のクラス(es)サンプルと新しいクラス(es)サンプルを区別するために、反復不確実性推定アルゴリズムを用いる。
私たちは受け入れ次第コードを公開します。
論文 参考訳(メタデータ) (2024-12-13T01:41:28Z) - Preview-based Category Contrastive Learning for Knowledge Distillation [53.551002781828146]
知識蒸留(PCKD)のための新しい予見型カテゴリーコントラスト学習法を提案する。
まず、インスタンスレベルの特徴対応と、インスタンスの特徴とカテゴリ中心の関係の両方の構造的知識を蒸留する。
カテゴリ表現を明示的に最適化し、インスタンスとカテゴリの表現を明確に関連付けることができる。
論文 参考訳(メタデータ) (2024-10-18T03:31:00Z) - Exploiting Fine-Grained Prototype Distribution for Boosting Unsupervised Class Incremental Learning [13.17775851211893]
本稿では,教師なしクラスインクリメンタルラーニング(UCIL)の課題について検討する。
この問題に対処することの本質は、包括的特徴表現を効果的に捉え、未知の新しいクラスを発見することである。
本稿では,新しいクラスと既存クラスの重複を最小限に抑え,歴史的知識を保存し,破滅的な忘れの現象を緩和する戦略を提案する。
論文 参考訳(メタデータ) (2024-08-19T14:38:27Z) - Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z) - Proxy Anchor-based Unsupervised Learning for Continuous Generalized
Category Discovery [22.519873617950662]
ラベルなし集合上の新しいカテゴリを発見するために,教師なしクラスインクリメンタルな学習手法を提案する。
提案手法は,ラベル付きデータセット上の特徴抽出器とプロキシアンカーを微調整し,サンプルをラベル付きデータセット上の古いカテゴリと新しいカテゴリとクラスタに分割する。
実験により,提案手法は実世界のシナリオ下での細粒度データセットにおける最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-20T15:13:29Z) - Memorizing Complementation Network for Few-Shot Class-Incremental
Learning [109.4206979528375]
本稿では,新しいタスクにおいて,異なる記憶された知識を補う複数のモデルをアンサンブルするために,MCNet(Memorizing Complementation Network)を提案する。
原型スムージング・ハードマイニング・トリプルト(PSHT)の損失を現時点の課題だけでなく,従来の分布からも引き離すために開発した。
論文 参考訳(メタデータ) (2022-08-11T02:32:41Z) - Novel Class Discovery without Forgetting [72.52222295216062]
我々は NCDwF: Novel Class Discovery without Forgetting の新たな実用的問題設定を特定し,定式化する。
ラベルのないデータから新しいカテゴリのインスタンスを段階的に発見する機械学習モデルを提案する。
CIFAR-10, CIFAR-100, ImageNet-1000に基づく実験プロトコルを導入し, 知識保持と新しいクラス発見のトレードオフを測定する。
論文 参考訳(メタデータ) (2022-07-21T17:54:36Z) - Class-incremental Novel Class Discovery [76.35226130521758]
クラス増進型新規クラス発見(class-iNCD)の課題について検討する。
基本クラスに関する過去の情報を忘れないようにする,クラスiNCDのための新しい手法を提案する。
3つの共通ベンチマークで実施した実験により,本手法が最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-07-18T13:49:27Z) - Uses and Abuses of the Cross-Entropy Loss: Case Studies in Modern Deep
Learning [29.473503894240096]
我々は、厳密な分類ではなく、単純な表現の値を取るデータにカテゴリ横断エントロピー損失を用いることに焦点をあてる。
このプラクティスは、ラベルの平滑化やアクター/ミリ波強化学習など、ニューラルネットワークアーキテクチャにおいて標準的なものだ。
我々はこれらのモデルに対して確率論的に着想を得た代替案を提案し、より原理的で理論的に魅力的であるアプローチを提供する。
論文 参考訳(メタデータ) (2020-11-10T16:44:35Z) - Open Set Recognition with Conditional Probabilistic Generative Models [51.40872765917125]
オープンセット認識のための条件付き確率生成モデル(CPGM)を提案する。
CPGMは未知のサンプルを検出できるが、異なる潜在特徴を条件付きガウス分布に近似させることで、既知のクラスを分類できる。
複数のベンチマークデータセットの実験結果から,提案手法がベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-08-12T06:23:49Z) - Simultaneous Perturbation Stochastic Approximation for Few-Shot Learning [0.5801044612920815]
本稿では, プロトタイプ型ネットワーク手法に基づく, プロトタイプライクな少数ショット学習手法を提案する。
ベンチマークデータセットを用いた実験の結果,提案手法は元のネットワークよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-06-09T09:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。