論文の概要: Category Adaptation Meets Projected Distillation in Generalized Continual Category Discovery
- arxiv url: http://arxiv.org/abs/2308.12112v4
- Date: Thu, 25 Jul 2024 11:49:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 19:56:25.768785
- Title: Category Adaptation Meets Projected Distillation in Generalized Continual Category Discovery
- Title(参考訳): カテゴリー適応は、一般化された連続的なカテゴリー発見において、予想される蒸留と一致する
- Authors: Grzegorz Rypeść, Daniel Marczak, Sebastian Cygert, Tomasz Trzciński, Bartłomiej Twardowski,
- Abstract要約: Generalized Continual Category Discovery (GCCD)は、シーケンシャルに到着し、部分的にラベル付けされたデータセットから学ぶことに取り組む。
本稿では,学習可能なプロジェクタと特徴蒸留を統合し,過去の知識を犠牲にすることなくモデル適応性を向上する手法を提案する。
それぞれのコンポーネントが個別に穏やかなメリットを提供する一方で、その組み合わせであるCAMPは、新しい情報学習と古い情報保持のバランスを大幅に改善します。
- 参考スコア(独自算出の注目度): 0.9349784561232036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalized Continual Category Discovery (GCCD) tackles learning from sequentially arriving, partially labeled datasets while uncovering new categories. Traditional methods depend on feature distillation to prevent forgetting the old knowledge. However, this strategy restricts the model's ability to adapt and effectively distinguish new categories. To address this, we introduce a novel technique integrating a learnable projector with feature distillation, thus enhancing model adaptability without sacrificing past knowledge. The resulting distribution shift of the previously learned categories is mitigated with the auxiliary category adaptation network. We demonstrate that while each component offers modest benefits individually, their combination - dubbed CAMP (Category Adaptation Meets Projected distillation) - significantly improves the balance between learning new information and retaining old. CAMP exhibits superior performance across several GCCD and Class Incremental Learning scenarios. The code is available at https://github.com/grypesc/CAMP.
- Abstract(参考訳): Generalized Continual Category Discovery (GCCD)は、新しいカテゴリを明らかにしながら、シーケンシャルに到達し、部分的にラベル付けされたデータセットから学習に取り組む。
伝統的な方法は、古い知識を忘れないように特徴蒸留に依存する。
しかし、この戦略はモデルが適応し、新しいカテゴリを効果的に区別する能力を制限する。
そこで本研究では,学習可能なプロジェクタと特徴蒸留を統合し,過去の知識を犠牲にすることなくモデル適応性を向上する手法を提案する。
得られたカテゴリの分布シフトは、補助カテゴリ適応ネットワークにより緩和される。
CAMP(Category Adaptation Meets Projected distillation)と呼ばれる組み合わせは、各コンポーネントが個別に穏やかなメリットを提供する一方で、新しい情報学習と古い情報保持のバランスを大幅に改善することを示した。
CAMPは、いくつかのGCCDおよびクラスインクリメンタルラーニングシナリオで優れたパフォーマンスを示している。
コードはhttps://github.com/grypesc/CAMPで公開されている。
関連論文リスト
- Class incremental learning with probability dampening and cascaded gated classifier [4.285597067389559]
本稿では, Margin Dampening と Cascaded Scaling という新たな漸進正規化手法を提案する。
1つ目は、ソフト制約と知識蒸留のアプローチを組み合わせて、過去の知識を保存し、新しいパターンを忘れることを可能にします。
提案手法は,複数のベンチマークにおいて,確立されたベースラインで良好に動作することを示す。
論文 参考訳(メタデータ) (2024-02-02T09:33:07Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - TLCE: Transfer-Learning Based Classifier Ensembles for Few-Shot
Class-Incremental Learning [5.753740302289126]
FSCIL(Few-shot class-incremental Learning)は、いくつかの例から新しいクラスを段階的に認識するのに苦労する。
本稿では,新しいクラスと古いクラスの分離を改善するために,複数の事前学習モデルをアンサンブルするTLCEを提案する。
論文 参考訳(メタデータ) (2023-12-07T11:16:00Z) - Dynamic Conceptional Contrastive Learning for Generalized Category
Discovery [76.82327473338734]
Generalized category discovery (GCD) は、部分的にラベル付けされたデータを自動でクラスタリングすることを目的としている。
ラベル付きデータには、ラベル付きデータの既知のカテゴリだけでなく、新しいカテゴリのインスタンスも含まれている。
GCDの効果的な方法の1つは、ラベルなしデータの識別表現を学習するために自己教師付き学習を適用することである。
本稿では,クラスタリングの精度を効果的に向上する動的概念コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T14:04:39Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - RECALL: Rehearsal-free Continual Learning for Object Classification [24.260824374268314]
畳み込みニューラルネットワークは、分類において顕著な結果を示すが、同時に新しいことを学ぶのに苦労する。
我々は、ディープニューラルネットワークが新しい未知のオブジェクトカテゴリを継続的に学習する、新しいリハーサルのないアプローチを提案する。
我々のアプローチはRECALLと呼ばれ、ネットワークは新しいカテゴリをトレーニングする前に古いカテゴリのロジットを計算することでカテゴリをリコールする。
論文 参考訳(メタデータ) (2022-09-29T13:36:28Z) - Class-incremental Novel Class Discovery [76.35226130521758]
クラス増進型新規クラス発見(class-iNCD)の課題について検討する。
基本クラスに関する過去の情報を忘れないようにする,クラスiNCDのための新しい手法を提案する。
3つの共通ベンチマークで実施した実験により,本手法が最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-07-18T13:49:27Z) - Exemplar-free Class Incremental Learning via Discriminative and
Comparable One-class Classifiers [12.121885324463388]
インクリメンタルラーニングのための識別・比較可能な1クラス分類器(DisCOIL)という新しいフレームワークを提案する。
DisCOILはPOCの基本原理に従っているが、他の確立された1クラス分類器(ディープSVDDなど)の代わりに変分自動エンコーダ(VAE)を採用している。
この利点により、DisCOILは新クラスのVAEと対照的に新クラスのVAEを訓練し、新クラスのVAEは新クラスのサンプルに対してより良い再構築を強いるが、旧クラスの偽のサンプルではさらに悪化し、改良された。
論文 参考訳(メタデータ) (2022-01-05T07:16:34Z) - Long-tail Recognition via Compositional Knowledge Transfer [60.03764547406601]
末尾クラスの少数ショット問題に対処する長尾認識のための新しい戦略を導入する。
我々の目標は、情報に富んだ共通クラスから得られた知識を、意味的に類似しているがデータに富む稀なクラスに伝達することである。
実験結果から,本手法は稀なクラスにおいて,堅牢な共通クラス性能を維持しつつ,大幅な性能向上を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-13T15:48:59Z) - Adaptive Class Suppression Loss for Long-Tail Object Detection [49.7273558444966]
アダプティブクラス抑圧損失(ACSL:Adaptive Class Suppression Loss)を考案し,尾部カテゴリの検出性能を改善する。
当社のACSLはResNet50-FPNで5.18%と5.2%の改善を実現し,新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2021-04-02T05:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。