論文の概要: Class-incremental Novel Class Discovery
- arxiv url: http://arxiv.org/abs/2207.08605v1
- Date: Mon, 18 Jul 2022 13:49:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 20:41:15.844451
- Title: Class-incremental Novel Class Discovery
- Title(参考訳): クラスインクリメンタルな新しいクラス発見
- Authors: Subhankar Roy, Mingxuan Liu, Zhun Zhong, Nicu Sebe, Elisa Ricci
- Abstract要約: クラス増進型新規クラス発見(class-iNCD)の課題について検討する。
基本クラスに関する過去の情報を忘れないようにする,クラスiNCDのための新しい手法を提案する。
3つの共通ベンチマークで実施した実験により,本手法が最先端の手法を著しく上回ることを示した。
- 参考スコア(独自算出の注目度): 76.35226130521758
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the new task of class-incremental Novel Class Discovery
(class-iNCD), which refers to the problem of discovering novel categories in an
unlabelled data set by leveraging a pre-trained model that has been trained on
a labelled data set containing disjoint yet related categories. Apart from
discovering novel classes, we also aim at preserving the ability of the model
to recognize previously seen base categories. Inspired by rehearsal-based
incremental learning methods, in this paper we propose a novel approach for
class-iNCD which prevents forgetting of past information about the base classes
by jointly exploiting base class feature prototypes and feature-level knowledge
distillation. We also propose a self-training clustering strategy that
simultaneously clusters novel categories and trains a joint classifier for both
the base and novel classes. This makes our method able to operate in a
class-incremental setting. Our experiments, conducted on three common
benchmarks, demonstrate that our method significantly outperforms
state-of-the-art approaches. Code is available at
https://github.com/OatmealLiu/class-iNCD
- Abstract(参考訳): 本研究は,無意味な関連カテゴリを含むラベル付きデータセット上で学習された事前学習モデルを用いて,ラベル付きデータセット内の新しいカテゴリを探索する問題を指すクラスインクリメンタルな新クラス発見(class-incd)の新たな課題について検討する。
新たなクラスを発見できるだけでなく,これまでに見られたベースカテゴリの認識能力の確保も目指している。
本稿では,リハーサル型インクリメンタル学習法に着想を得て,基本クラス特徴プロトタイプと機能レベルの知識蒸留を共同で活用することにより,基礎クラスに関する過去の情報を忘れないようにする新しいアプローチを提案する。
また、新たなカテゴリを同時にクラスタリングし、ベースクラスと新規クラスの両方で共同分類器を訓練する自己学習クラスタリング戦略を提案する。
これにより、私たちのメソッドはクラスインクリメンタルな設定で操作できます。
3つの共通ベンチマークで実施した実験により,本手法が最先端の手法を著しく上回ることを示した。
コードはhttps://github.com/OatmealLiu/class-iNCDで入手できる。
関連論文リスト
- NC-NCD: Novel Class Discovery for Node Classification [28.308556235456766]
クラスディスカバリ(NCD)は、以前に確立されたカテゴリから取得した知識を活用することにより、ラベルなしデータ内の新しいカテゴリを識別する。
既存のNCD手法は、古いカテゴリと新しいカテゴリのパフォーマンスのバランスを維持するのに苦労することが多い。
ノード分類のためのより実用的なNCDシナリオ(NC-NCD)を初めて紹介する。
提案する自己学習フレームワークは, SWORDと呼ばれ, NC-NCD設定に採用されている。
論文 参考訳(メタデータ) (2024-07-25T07:10:08Z) - Organizing Background to Explore Latent Classes for Incremental Few-shot Semantic Segmentation [7.570798966278471]
インクリメンタルなFew-shot Semantic COCO(iFSS)は、トレーニング済みのセグメンテーションモデルを、いくつかの注釈付きイメージを通じて新しいクラスに拡張することである。
我々は,OINetと呼ばれる背景埋め込み空間 textbfOrganization とプロトタイプ textbfInherit Network を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:22:12Z) - ProxyDet: Synthesizing Proxy Novel Classes via Classwise Mixup for
Open-Vocabulary Object Detection [7.122652901894367]
Open-vocabulary Object Detection (OVOD)は、トレーニングセットにカテゴリが含まれていない新しいオブジェクトを認識することを目的としている。
本稿では,新しいクラス全体の分布を一般化する手法を提案する。
論文 参考訳(メタデータ) (2023-12-12T13:45:56Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Class-relation Knowledge Distillation for Novel Class Discovery [16.461242381109276]
主な課題は、既知のクラスデータの知識を新しいクラスの学習に転送することである。
本稿では,既知のクラスに基づいて学習したモデルの予測クラス分布に基づいて,新しいクラスに対するクラス関係表現を提案する。
本稿では,クラス関係表現を利用して新しいクラスの学習を規則化する新しい知識蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-18T11:35:57Z) - Automatically Discovering Novel Visual Categories with Self-supervised
Prototype Learning [68.63910949916209]
本稿では,大規模な画像収集において未知のカテゴリを識別することを目的とした,新しいカテゴリ発見(NCD)の課題に取り組む。
本稿では,プロトタイプ表現学習とプロトタイプ自己学習という,2つの主要な段階からなる適応型プロトタイプ学習手法を提案する。
本研究では,4つのベンチマークデータセットについて広範な実験を行い,提案手法の有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2022-08-01T16:34:33Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。