論文の概要: Generalized Continual Category Discovery
- arxiv url: http://arxiv.org/abs/2308.12112v1
- Date: Wed, 23 Aug 2023 13:02:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 14:04:42.608218
- Title: Generalized Continual Category Discovery
- Title(参考訳): 一般化された連続カテゴリー発見
- Authors: Daniel Marczak, Grzegorz Rype\'s\'c, Sebastian Cygert, Tomasz
Trzci\'nski, Bart{\l}omiej Twardowski
- Abstract要約: ほとんどのCL(Continuous Learning)メソッドは、エージェントが新しいラベル付きタスクを学習し、以前の知識を忘れないことを期待する、教師付き学習設定の限界を押し上げる。
我々は、この仮定を緩和する新しい枠組みを導入する。正確には、あらゆるタスクにおいて、新しいクラスや既知のクラスの存在を許容し、教師なし学習手法の連続的なバージョンを使用して発見する必要がある。
本稿では,教師付き信号と教師なし信号の両方を組み込んで,セントロイド適応を用いて忘れを緩和する手法を提案する。
- 参考スコア(独自算出の注目度): 16.10193347806559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most of Continual Learning (CL) methods push the limit of supervised learning
settings, where an agent is expected to learn new labeled tasks and not forget
previous knowledge. However, these settings are not well aligned with real-life
scenarios, where a learning agent has access to a vast amount of unlabeled data
encompassing both novel (entirely unlabeled) classes and examples from known
classes. Drawing inspiration from Generalized Category Discovery (GCD), we
introduce a novel framework that relaxes this assumption. Precisely, in any
task, we allow for the existence of novel and known classes, and one must use
continual version of unsupervised learning methods to discover them. We call
this setting Generalized Continual Category Discovery (GCCD). It unifies CL and
GCD, bridging the gap between synthetic benchmarks and real-life scenarios.
With a series of experiments, we present that existing methods fail to
accumulate knowledge from subsequent tasks in which unlabeled samples of novel
classes are present. In light of these limitations, we propose a method that
incorporates both supervised and unsupervised signals and mitigates the
forgetting through the use of centroid adaptation. Our method surpasses strong
CL methods adopted for GCD techniques and presents a superior representation
learning performance.
- Abstract(参考訳): 継続学習(CL)手法の多くは、エージェントが新しいラベル付きタスクを学習し、以前の知識を忘れないことを期待する、教師付き学習設定の限界を押し上げる。
しかし、これらの設定は、学習エージェントが、新しい(ほとんどラベルのない)クラスと既知のクラスからの例の両方を包含する、膨大な量のラベルなしデータにアクセスできる現実のシナリオとうまく一致しない。
一般化カテゴリー発見(GCD)からインスピレーションを得て,この仮定を緩和する新しい枠組みを導入する。
正確には、どのタスクにおいても、新しいクラスや既知のクラスの存在を許容し、教師なしの学習方法の継続的なバージョンを使用して発見する必要がある。
我々はこの設定をGeneralized Continual Category Discovery (GCCD)と呼ぶ。
CLとGCDを統一し、合成ベンチマークと実生活シナリオのギャップを埋める。
一連の実験により、既存の手法は、新規クラスの未ラベルサンプルが存在するタスクから知識を蓄積することができないことを示す。
これらの制約を踏まえて,教師付き信号と教師なし信号の両方を取り込んで,遠心適応を用いることで忘れを緩和する手法を提案する。
提案手法は,GCD技術で採用されている強力なCL手法を超越し,優れた表現学習性能を示す。
関連論文リスト
- Class incremental learning with probability dampening and cascaded gated classifier [4.285597067389559]
本稿では, Margin Dampening と Cascaded Scaling という新たな漸進正規化手法を提案する。
1つ目は、ソフト制約と知識蒸留のアプローチを組み合わせて、過去の知識を保存し、新しいパターンを忘れることを可能にします。
提案手法は,複数のベンチマークにおいて,確立されたベースラインで良好に動作することを示す。
論文 参考訳(メタデータ) (2024-02-02T09:33:07Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - TLCE: Transfer-Learning Based Classifier Ensembles for Few-Shot
Class-Incremental Learning [5.753740302289126]
FSCIL(Few-shot class-incremental Learning)は、いくつかの例から新しいクラスを段階的に認識するのに苦労する。
本稿では,新しいクラスと古いクラスの分離を改善するために,複数の事前学習モデルをアンサンブルするTLCEを提案する。
論文 参考訳(メタデータ) (2023-12-07T11:16:00Z) - Dynamic Conceptional Contrastive Learning for Generalized Category
Discovery [76.82327473338734]
Generalized category discovery (GCD) は、部分的にラベル付けされたデータを自動でクラスタリングすることを目的としている。
ラベル付きデータには、ラベル付きデータの既知のカテゴリだけでなく、新しいカテゴリのインスタンスも含まれている。
GCDの効果的な方法の1つは、ラベルなしデータの識別表現を学習するために自己教師付き学習を適用することである。
本稿では,クラスタリングの精度を効果的に向上する動的概念コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T14:04:39Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - RECALL: Rehearsal-free Continual Learning for Object Classification [24.260824374268314]
畳み込みニューラルネットワークは、分類において顕著な結果を示すが、同時に新しいことを学ぶのに苦労する。
我々は、ディープニューラルネットワークが新しい未知のオブジェクトカテゴリを継続的に学習する、新しいリハーサルのないアプローチを提案する。
我々のアプローチはRECALLと呼ばれ、ネットワークは新しいカテゴリをトレーニングする前に古いカテゴリのロジットを計算することでカテゴリをリコールする。
論文 参考訳(メタデータ) (2022-09-29T13:36:28Z) - Class-incremental Novel Class Discovery [76.35226130521758]
クラス増進型新規クラス発見(class-iNCD)の課題について検討する。
基本クラスに関する過去の情報を忘れないようにする,クラスiNCDのための新しい手法を提案する。
3つの共通ベンチマークで実施した実験により,本手法が最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-07-18T13:49:27Z) - Exemplar-free Class Incremental Learning via Discriminative and
Comparable One-class Classifiers [12.121885324463388]
インクリメンタルラーニングのための識別・比較可能な1クラス分類器(DisCOIL)という新しいフレームワークを提案する。
DisCOILはPOCの基本原理に従っているが、他の確立された1クラス分類器(ディープSVDDなど)の代わりに変分自動エンコーダ(VAE)を採用している。
この利点により、DisCOILは新クラスのVAEと対照的に新クラスのVAEを訓練し、新クラスのVAEは新クラスのサンプルに対してより良い再構築を強いるが、旧クラスの偽のサンプルではさらに悪化し、改良された。
論文 参考訳(メタデータ) (2022-01-05T07:16:34Z) - Long-tail Recognition via Compositional Knowledge Transfer [60.03764547406601]
末尾クラスの少数ショット問題に対処する長尾認識のための新しい戦略を導入する。
我々の目標は、情報に富んだ共通クラスから得られた知識を、意味的に類似しているがデータに富む稀なクラスに伝達することである。
実験結果から,本手法は稀なクラスにおいて,堅牢な共通クラス性能を維持しつつ,大幅な性能向上を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-13T15:48:59Z) - Adaptive Class Suppression Loss for Long-Tail Object Detection [49.7273558444966]
アダプティブクラス抑圧損失(ACSL:Adaptive Class Suppression Loss)を考案し,尾部カテゴリの検出性能を改善する。
当社のACSLはResNet50-FPNで5.18%と5.2%の改善を実現し,新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2021-04-02T05:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。