論文の概要: Few-Shot Class-Incremental Learning from an Open-Set Perspective
- arxiv url: http://arxiv.org/abs/2208.00147v1
- Date: Sat, 30 Jul 2022 05:42:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:41:32.079214
- Title: Few-Shot Class-Incremental Learning from an Open-Set Perspective
- Title(参考訳): オープンセットから見たクラスインクリメンタル学習
- Authors: Can Peng, Kun Zhao, Tianren Wang, Meng Li and Brian C. Lovell
- Abstract要約: FSCIL(Few-Shot Class-Incremental Learning)の重要な課題と,その極端なデータ不足状況について検討する。
ALICEでは、一般的に使用されるクロスエントロピー損失の代わりに、角のペナルティ損失を用いて、適切にクラスタリングされた特徴を得る方法を提案する。
CIFAR100、miniImageNet、CUB200といったベンチマークデータセットの実験では、ALICEのパフォーマンスが改善された。
- 参考スコア(独自算出の注目度): 10.898784938875702
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The continual appearance of new objects in the visual world poses
considerable challenges for current deep learning methods in real-world
deployments. The challenge of new task learning is often exacerbated by the
scarcity of data for the new categories due to rarity or cost. Here we explore
the important task of Few-Shot Class-Incremental Learning (FSCIL) and its
extreme data scarcity condition of one-shot. An ideal FSCIL model needs to
perform well on all classes, regardless of their presentation order or paucity
of data. It also needs to be robust to open-set real-world conditions and be
easily adapted to the new tasks that always arise in the field. In this paper,
we first reevaluate the current task setting and propose a more comprehensive
and practical setting for the FSCIL task. Then, inspired by the similarity of
the goals for FSCIL and modern face recognition systems, we propose our method
-- Augmented Angular Loss Incremental Classification or ALICE. In ALICE,
instead of the commonly used cross-entropy loss, we propose to use the angular
penalty loss to obtain well-clustered features. As the obtained features not
only need to be compactly clustered but also diverse enough to maintain
generalization for future incremental classes, we further discuss how class
augmentation, data augmentation, and data balancing affect classification
performance. Experiments on benchmark datasets, including CIFAR100,
miniImageNet, and CUB200, demonstrate the improved performance of ALICE over
the state-of-the-art FSCIL methods.
- Abstract(参考訳): 視覚の世界における新しいオブジェクトの継続的な出現は、現実世界のデプロイメントにおける現在のディープラーニング手法にとって大きな課題となる。
新しいタスク学習の課題は、希少性やコストによる新しいカテゴリのデータ不足によって、しばしば悪化する。
ここでは,マイナショット・クラスインクリメンタル・ラーニング(fscil)の重要課題と,その極端なデータ不足状況について考察する。
理想的なFSCILモデルは、プレゼンテーションの順序やデータのあいまいさに関わらず、すべてのクラスでうまく機能する必要がある。
また、実世界の条件をオープンに設定し、フィールドで常に発生する新しいタスクに容易に適応できるようにする必要がある。
本稿では、まず現在のタスク設定を再評価し、FSCILタスクに対してより包括的で実用的な設定を提案する。
次に、FSCILと現代の顔認識システムの目標の類似性から着想を得て、Augmented Angular Loss Incremental Classification(ALICE)を提案する。
ALICEでは、一般的に使用されるクロスエントロピー損失の代わりに、角のペナルティ損失を用いて、よくクラスタ化された特徴を得る。
得られた機能は、コンパクトにクラスタ化されるだけでなく、将来の増分クラスに対する一般化を維持するのに十分な多様性を持つため、クラス拡張、データ拡張、データバランスが分類性能にどのように影響するかをさらに議論する。
CIFAR100、miniImageNet、CUB200といったベンチマークデータセットの実験では、最先端のFSCILメソッドよりもALICEのパフォーマンスが改善された。
関連論文リスト
- Adaptive Masking Enhances Visual Grounding [12.793586888511978]
ローショット学習シナリオにおける語彙接地を改善するために,ガウス放射変調を用いた画像解釈型マスキングを提案する。
我々はCOCOやODinWを含むベンチマークデータセットに対するアプローチの有効性を評価し、ゼロショットタスクや少数ショットタスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-04T05:48:02Z) - TACLE: Task and Class-aware Exemplar-free Semi-supervised Class Incremental Learning [16.734025446561695]
そこで本研究では,先進的な半教師付きクラスインクリメンタルラーニングの問題に対処する新しいTACLEフレームワークを提案する。
このシナリオでは、新しいタスクごとに、ラベル付きデータとラベルなしデータの両方から新しいクラスを学習する必要があります。
事前訓練されたモデルの能力を活用することに加えて、TACLEは新しいタスク適応しきい値を提案する。
論文 参考訳(メタデータ) (2024-07-10T20:46:35Z) - Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。