論文の概要: Generalized Continual Category Discovery
- arxiv url: http://arxiv.org/abs/2308.12112v1
- Date: Wed, 23 Aug 2023 13:02:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 14:04:42.608218
- Title: Generalized Continual Category Discovery
- Title(参考訳): 一般化された連続カテゴリー発見
- Authors: Daniel Marczak, Grzegorz Rype\'s\'c, Sebastian Cygert, Tomasz
Trzci\'nski, Bart{\l}omiej Twardowski
- Abstract要約: ほとんどのCL(Continuous Learning)メソッドは、エージェントが新しいラベル付きタスクを学習し、以前の知識を忘れないことを期待する、教師付き学習設定の限界を押し上げる。
我々は、この仮定を緩和する新しい枠組みを導入する。正確には、あらゆるタスクにおいて、新しいクラスや既知のクラスの存在を許容し、教師なし学習手法の連続的なバージョンを使用して発見する必要がある。
本稿では,教師付き信号と教師なし信号の両方を組み込んで,セントロイド適応を用いて忘れを緩和する手法を提案する。
- 参考スコア(独自算出の注目度): 16.10193347806559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most of Continual Learning (CL) methods push the limit of supervised learning
settings, where an agent is expected to learn new labeled tasks and not forget
previous knowledge. However, these settings are not well aligned with real-life
scenarios, where a learning agent has access to a vast amount of unlabeled data
encompassing both novel (entirely unlabeled) classes and examples from known
classes. Drawing inspiration from Generalized Category Discovery (GCD), we
introduce a novel framework that relaxes this assumption. Precisely, in any
task, we allow for the existence of novel and known classes, and one must use
continual version of unsupervised learning methods to discover them. We call
this setting Generalized Continual Category Discovery (GCCD). It unifies CL and
GCD, bridging the gap between synthetic benchmarks and real-life scenarios.
With a series of experiments, we present that existing methods fail to
accumulate knowledge from subsequent tasks in which unlabeled samples of novel
classes are present. In light of these limitations, we propose a method that
incorporates both supervised and unsupervised signals and mitigates the
forgetting through the use of centroid adaptation. Our method surpasses strong
CL methods adopted for GCD techniques and presents a superior representation
learning performance.
- Abstract(参考訳): 継続学習(CL)手法の多くは、エージェントが新しいラベル付きタスクを学習し、以前の知識を忘れないことを期待する、教師付き学習設定の限界を押し上げる。
しかし、これらの設定は、学習エージェントが、新しい(ほとんどラベルのない)クラスと既知のクラスからの例の両方を包含する、膨大な量のラベルなしデータにアクセスできる現実のシナリオとうまく一致しない。
一般化カテゴリー発見(GCD)からインスピレーションを得て,この仮定を緩和する新しい枠組みを導入する。
正確には、どのタスクにおいても、新しいクラスや既知のクラスの存在を許容し、教師なしの学習方法の継続的なバージョンを使用して発見する必要がある。
我々はこの設定をGeneralized Continual Category Discovery (GCCD)と呼ぶ。
CLとGCDを統一し、合成ベンチマークと実生活シナリオのギャップを埋める。
一連の実験により、既存の手法は、新規クラスの未ラベルサンプルが存在するタスクから知識を蓄積することができないことを示す。
これらの制約を踏まえて,教師付き信号と教師なし信号の両方を取り込んで,遠心適応を用いることで忘れを緩和する手法を提案する。
提案手法は,GCD技術で採用されている強力なCL手法を超越し,優れた表現学習性能を示す。
関連論文リスト
- MetaGCD: Learning to Continually Learn in Generalized Category Discovery [26.732455383707798]
事前に定義されたクラスでトレーニングされたモデルが、ラベルのないデータに絶えず遭遇する実世界のシナリオを考察する。
目標は、既知のクラスのパフォーマンスを維持しながら、新しいクラスを継続的に発見することである。
そこで我々はMetaGCDと呼ばれる手法を提案し,忘れることなく漸進的に発見する方法を学習する。
論文 参考訳(メタデータ) (2023-08-21T22:16:49Z) - Proxy Anchor-based Unsupervised Learning for Continuous Generalized
Category Discovery [22.519873617950662]
ラベルなし集合上の新しいカテゴリを発見するために,教師なしクラスインクリメンタルな学習手法を提案する。
提案手法は,ラベル付きデータセット上の特徴抽出器とプロキシアンカーを微調整し,サンプルをラベル付きデータセット上の古いカテゴリと新しいカテゴリとクラスタに分割する。
実験により,提案手法は実世界のシナリオ下での細粒度データセットにおける最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-20T15:13:29Z) - Large-scale Pre-trained Models are Surprisingly Strong in Incremental
Novel Class Discovery [76.35226130521758]
我々は,MSc-iNCDという,より挑戦的で実践的な学習パラダイムを提案する。
本研究では,MSc-iNCDという,より困難で実践的な学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-03-28T13:47:16Z) - PromptCAL: Contrastive Affinity Learning via Auxiliary Prompts for
Generalized Novel Category Discovery [39.03732147384566]
Generalized Novel Category Discovery (GNCD) 設定は、既知のクラスや新しいクラスから来るラベルなしのトレーニングデータを分類することを目的としている。
本稿では,この課題に対処するために,PromptCALと呼ばれる補助視覚プロンプトを用いたコントラスト親和性学習法を提案する。
提案手法は,クラストークンと視覚的プロンプトのための既知のクラスと新しいクラスのセマンティッククラスタリングを改善するために,信頼性の高いペアワイズサンプル親和性を発見する。
論文 参考訳(メタデータ) (2022-12-11T20:06:14Z) - Novel Class Discovery without Forgetting [72.52222295216062]
我々は NCDwF: Novel Class Discovery without Forgetting の新たな実用的問題設定を特定し,定式化する。
ラベルのないデータから新しいカテゴリのインスタンスを段階的に発見する機械学習モデルを提案する。
CIFAR-10, CIFAR-100, ImageNet-1000に基づく実験プロトコルを導入し, 知識保持と新しいクラス発見のトレードオフを測定する。
論文 参考訳(メタデータ) (2022-07-21T17:54:36Z) - Class-incremental Novel Class Discovery [76.35226130521758]
クラス増進型新規クラス発見(class-iNCD)の課題について検討する。
基本クラスに関する過去の情報を忘れないようにする,クラスiNCDのための新しい手法を提案する。
3つの共通ベンチマークで実施した実験により,本手法が最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-07-18T13:49:27Z) - A Study of Continual Learning Methods for Q-Learning [78.6363825307044]
本稿では、強化学習(RL)シナリオにおける継続学習(CL)手法の使用に関する実証的研究について述べる。
この結果から,専用CL法は「経験的再生」のベースライン手法と比較して学習を著しく改善できることがわかった。
論文 参考訳(メタデータ) (2022-06-08T14:51:52Z) - Spacing Loss for Discovering Novel Categories [72.52222295216062]
新たなクラスディスカバリ(NCD)は、マシンラーニングモデルがラベルのないデータからインスタンスを意味的にグループ化する、学習パラダイムである。
まず,ラベル付きデータとラベルなしデータを併用する必要があるかどうかに基づいて,既存のNCD手法を1段階および2段階の手法に特徴付ける。
多次元スケーリングのキューを用いて、潜在空間における分離性を強制する単純で強力な損失関数を考案する。
論文 参考訳(メタデータ) (2022-04-22T09:37:11Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。