論文の概要: Bias Mitigating Few-Shot Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2402.00481v1
- Date: Thu, 1 Feb 2024 10:37:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 15:36:58.270903
- Title: Bias Mitigating Few-Shot Class-Incremental Learning
- Title(参考訳): クラスインクリメンタル学習におけるバイアス緩和
- Authors: Li-Jun Zhao, Zhen-Duo Chen, Zi-Chao Zhang, Xin Luo, Xin-Shun Xu
- Abstract要約: クラス増分学習は,限定された新規クラスサンプルを用いて,新規クラスを継続的に認識することを目的としている。
最近の手法では,段階的なセッションで特徴抽出器を微調整することにより,ベースクラスとインクリメンタルクラスの精度の不均衡を緩和している。
本研究では,FSCIL問題におけるモデルバイアスを緩和する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 17.185744533050116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot class-incremental learning (FSCIL) aims at recognizing novel classes
continually with limited novel class samples. A mainstream baseline for FSCIL
is first to train the whole model in the base session, then freeze the feature
extractor in the incremental sessions. Despite achieving high overall accuracy,
most methods exhibit notably low accuracy for incremental classes. Some recent
methods somewhat alleviate the accuracy imbalance between base and incremental
classes by fine-tuning the feature extractor in the incremental sessions, but
they further cause the accuracy imbalance between past and current incremental
classes. In this paper, we study the causes of such classification accuracy
imbalance for FSCIL, and abstract them into a unified model bias problem. Based
on the analyses, we propose a novel method to mitigate model bias of the FSCIL
problem during training and inference processes, which includes mapping ability
stimulation, separately dual-feature classification, and self-optimizing
classifiers. Extensive experiments on three widely-used FSCIL benchmark
datasets show that our method significantly mitigates the model bias problem
and achieves state-of-the-art performance.
- Abstract(参考訳): FSCIL (Few-shot class-incremental Learning) は,新規クラスを限定された新規クラスサンプルで継続的に認識することを目的としている。
FSCILのメインストリームのベースラインは、まずベースセッションでモデル全体をトレーニングし、次にインクリメンタルセッションで機能抽出器を凍結する。
全体的な精度は高いものの、ほとんどのメソッドはインクリメンタルクラスの精度が著しく低い。
最近のいくつかの手法は、インクリメンタルセッションで特徴抽出器を微調整することで、ベースクラスとインクリメンタルクラスの精度の不均衡を幾分緩和するが、それらはさらに過去のインクリメンタルクラスと現在のインクリメンタルクラスの精度不均衡を引き起こす。
本稿では,FSCILの分類精度の不均衡の原因について検討し,それらを統一モデルバイアス問題に抽象化する。
そこで本研究では,fscil問題の学習過程および推論過程におけるモデルバイアスを軽減する新しい手法を提案する。
広範に使用されている3つのFSCILベンチマークデータセットに対する大規模な実験により,本手法はモデルバイアス問題を著しく軽減し,最先端の性能を実現する。
関連論文リスト
- Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Few-Shot Class-Incremental Learning with Prior Knowledge [94.95569068211195]
本稿では,事前学習モデルの一般化能力を高めるために,先行知識を用いた学習(LwPK)を提案する。
実験結果から,LwPKは破滅的忘れ込みに対するモデルレジリエンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-02T08:05:35Z) - Prediction Error-based Classification for Class-Incremental Learning [39.91805363069707]
予測誤差に基づく分類(PEC)を導入する
PECは、そのクラスのデータに基づいて、凍結ランダムニューラルネットワークの出力を複製するために訓練されたモデルの予測誤差を測定して、クラススコアを算出する。
PECは、サンプル効率、チューニングの容易さ、データを一度に1つのクラスに提示しても有効性など、いくつかの実用的な利点を提供している。
論文 参考訳(メタデータ) (2023-05-30T07:43:35Z) - Margin-Based Few-Shot Class-Incremental Learning with Class-Level
Overfitting Mitigation [19.975435754433754]
FSCIL(Few-shot class-incremental Learning)は、少数のトレーニングサンプルで新規クラスを段階的に認識するように設計されている。
ベースクラスのトレーニングに対するよく知られた変更は、ベースクラスの分類にマージンを適用することである。
本研究では,CO 問題を軽減するために,利幅に基づく新たな FSCIL 法を提案する。
論文 参考訳(メタデータ) (2022-10-10T09:45:53Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - SS-IL: Separated Softmax for Incremental Learning [15.161214516549844]
学習エージェントが学習データバッチの漸進的な到着から新しいクラスを継続的に学習するクラスインクリメンタルラーニング(CIL)問題を考察する。
問題の最大の課題は、破滅的な忘れ物だ。
本稿では,タスクワイド知識蒸留(TKD)と分離したソフトマックス(SS)出力層と組み合わせ,そのバイアスを解消する新たな手法として,SS-IL(Separated Softmax for Incremental Learning)を提案する。
論文 参考訳(メタデータ) (2020-03-31T04:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。