論文の概要: Coarse-To-Fine Incremental Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2111.14806v1
- Date: Wed, 24 Nov 2021 21:03:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 00:44:31.135267
- Title: Coarse-To-Fine Incremental Few-Shot Learning
- Title(参考訳): 粗大なインクリメンタルFew-Shot学習
- Authors: Xiang Xiang, Yuwen Tan, Qian Wan, Jing Ma
- Abstract要約: CIL(Class-incremental Learning)は、学習前の授業を忘れずに、時間とともに新しいクラスを認識することを目的としている。
本稿では,C2FSCILというCIL問題として,C2FS認識のハイブリッドな自然問題を定式化する。
Knoweは、新しい問題設定に適合した最近のCIL/FSCILメソッドを初めて上回っている。
- 参考スコア(独自算出の注目度): 9.865626482358211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Different from fine-tuning models pre-trained on a large-scale dataset of
preset classes, class-incremental learning (CIL) aims to recognize novel
classes over time without forgetting pre-trained classes. However, a given
model will be challenged by test images with finer-grained classes, e.g., a
basenji is at most recognized as a dog. Such images form a new training set
(i.e., support set) so that the incremental model is hoped to recognize a
basenji (i.e., query) as a basenji next time. This paper formulates such a
hybrid natural problem of coarse-to-fine few-shot (C2FS) recognition as a CIL
problem named C2FSCIL, and proposes a simple, effective, and
theoretically-sound strategy Knowe: to learn, normalize, and freeze a
classifier's weights from fine labels, once learning an embedding space
contrastively from coarse labels. Besides, as CIL aims at a
stability-plasticity balance, new overall performance metrics are proposed. In
that sense, on CIFAR-100, BREEDS, and tieredImageNet, Knowe outperforms all
recent relevant CIL/FSCIL methods that are tailored to the new problem setting
for the first time.
- Abstract(参考訳): 事前セットクラスの大規模データセットで事前学習される微調整モデルとは異なり、クラスインクリメンタル学習(cil)は、事前学習されたクラスを忘れずに、新しいクラスを時間とともに認識することを目的としている。
しかし、あるモデルは、細かなクラスを持つテスト画像によって挑戦される。例えば、バーメンジは、犬として認識されることが多い。
このような画像は新たなトレーニングセット(つまりサポートセット)を形成し、次回はインクリメンタルモデルがベースンジ(すなわちクエリ)をベースンジとして認識することを期待する。
本論文は,c2fscil という cil 問題としての粗小数点 (c2fs) 認識のハイブリッド自然問題を提案し,粗小ラベルと対比して埋め込み空間を学習し,分類器の重みを学習し,正規化し,凍結する,単純で効果的で理論的に健全な戦略知識を提案する。
さらに、CILは安定性と塑性のバランスを目指しており、新しい全体的なパフォーマンス指標が提案されている。
その意味では、CIFAR-100、BREEDS、およびタイレッドImageNetにおいて、Knoweは、新しい問題設定に合わせて調整された、最近のCIL/FSCILメソッド全てより優れている。
関連論文リスト
- Happy: A Debiased Learning Framework for Continual Generalized Category Discovery [54.54153155039062]
本稿では,C-GCD(Continuous Generalized Category Discovery)の未探索課題について考察する。
C-GCDは、学習済みのクラスを認識する能力を維持しながら、ラベルのないデータから新しいクラスを漸進的に発見することを目的としている。
本稿では,ハードネスを意識したプロトタイプサンプリングとソフトエントロピー正規化を特徴とする,偏りのある学習フレームワークであるHappyを紹介する。
論文 参考訳(メタデータ) (2024-10-09T04:18:51Z) - Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Decomposed Knowledge Distillation for Class-Incremental Semantic
Segmentation [34.460973847554364]
クラスインクリメンタルセマンティックセグメンテーション(CISS)は、画像の各ピクセルに対応するオブジェクト/スタッフクラスを連続的にラベル付けする。
それまでの知識を忘れずに、新しいクラスを漸進的に学ぶことが不可欠である。
我々は,忘れる問題を軽減し,新しい授業を効果的に学習するためのCISSフレームワークを導入する。
論文 参考訳(メタデータ) (2022-10-12T06:15:51Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - ClaRe: Practical Class Incremental Learning By Remembering Previous
Class Representations [9.530976792843495]
クラスインクリメンタル学習(cil)は、新しい概念を完全に学習する傾向があるが、古いデータのパフォーマンスと正確性を犠牲にしない。
ClaReは、各インクリメントで学んだクラスの表現を覚えておくことで、CILの効率的なソリューションです。
ClaReは、以前に学習したクラスの分布から多様なインスタンスを生成するため、従来の方法よりも優れた一般化がある。
論文 参考訳(メタデータ) (2021-03-29T10:39:42Z) - Class-incremental Learning with Rectified Feature-Graph Preservation [24.098892115785066]
本論文の中心的なテーマは,逐次的な段階を経る新しいクラスを学習することである。
旧知識保存のための重み付きユークリッド正規化を提案する。
新しいクラスを効果的に学習するために、クラス分離を増やすためにバイナリクロスエントロピーでどのように機能するかを示す。
論文 参考訳(メタデータ) (2020-12-15T07:26:04Z) - Fine-grained Angular Contrastive Learning with Coarse Labels [72.80126601230447]
教師付きおよび自己監督型コントラスト前訓練を効果的に組み合わせることができる新しい「Angularの正規化」モジュールを紹介します。
この研究は、C2FS分類のこの新しい、挑戦的で、非常に実用的なトピックに関する将来の研究の道を開くのに役立ちます。
論文 参考訳(メタデータ) (2020-12-07T08:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。