論文の概要: Learnable Distribution Calibration for Few-Shot Class-Incremental
Learning
- arxiv url: http://arxiv.org/abs/2210.00232v1
- Date: Sat, 1 Oct 2022 09:40:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 15:25:53.565648
- Title: Learnable Distribution Calibration for Few-Shot Class-Incremental
Learning
- Title(参考訳): Few-Shot Class-Incremental Learningのための学習可能な分布校正法
- Authors: Binghao Liu, Boyu Yang, Lingxi Xie, Ren Wang, Qi Tian, Qixiang Ye
- Abstract要約: FSCIL(Few-shot class-incremental Learning)は、古いクラス分布を記憶し、少数のトレーニングサンプルから新しいクラス分布を推定するという課題に直面している。
本稿では,これら2つの課題を統一フレームワークを用いて体系的に解決することを目的とした,学習可能な分布校正手法を提案する。
- 参考スコア(独自算出の注目度): 122.2241120474278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot class-incremental learning (FSCIL) faces challenges of memorizing
old class distributions and estimating new class distributions given few
training samples. In this study, we propose a learnable distribution
calibration (LDC) approach, with the aim to systematically solve these two
challenges using a unified framework. LDC is built upon a parameterized
calibration unit (PCU), which initializes biased distributions for all classes
based on classifier vectors (memory-free) and a single covariance matrix. The
covariance matrix is shared by all classes, so that the memory costs are fixed.
During base training, PCU is endowed with the ability to calibrate biased
distributions by recurrently updating sampled features under the supervision of
real distributions. During incremental learning, PCU recovers distributions for
old classes to avoid `forgetting', as well as estimating distributions and
augmenting samples for new classes to alleviate `over-fitting' caused by the
biased distributions of few-shot samples. LDC is theoretically plausible by
formatting a variational inference procedure. It improves FSCIL's flexibility
as the training procedure requires no class similarity priori. Experiments on
CUB200, CIFAR100, and mini-ImageNet datasets show that LDC outperforms the
state-of-the-arts by 4.64%, 1.98%, and 3.97%, respectively. LDC's effectiveness
is also validated on few-shot learning scenarios.
- Abstract(参考訳): FSCIL(Few-shot class-incremental Learning)は、古いクラス分布を記憶し、少数のトレーニングサンプルから新しいクラス分布を推定するという課題に直面している。
本研究では,これら2つの課題を統一フレームワークを用いて体系的に解決することを目的とした,学習可能な分布校正手法を提案する。
LDCはパラメータ化キャリブレーションユニット(PCU)上に構築されており、全てのクラスに対するバイアス分布を、分類器ベクトル(メモリフリー)と1つの共分散行列に基づいて初期化する。
共分散行列はすべてのクラスで共有され、メモリコストが固定される。
ベーストレーニング中、PCUは実際の分布の監督の下でサンプリングされた特徴を繰り返し更新することでバイアス分布を校正する能力を備えている。
漸進的な学習の間、PCUは古いクラスの分布を復元し、'forgetting'を避け、新しいクラスの分布を推定し、サンプルを増強し、少数のサンプルのバイアス分布に起因する'over-fitting'を緩和する。
LDCは変分推論手順をフォーマットすることで理論的に妥当である。
FSCILの柔軟性は、トレーニング手順がクラスの類似性を事前に必要としないため改善される。
CUB200、CIFAR100、mini-ImageNetのデータセットによる実験では、LCCは、それぞれ4.64%、1.98%、および3.97%のパフォーマンスを示している。
ldcの有効性は、少数の学習シナリオでも検証できる。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Transfer Knowledge from Head to Tail: Uncertainty Calibration under
Long-tailed Distribution [24.734851889816206]
現在の校正技術は、異なるクラスを均等に扱い、暗黙的にトレーニングデータの分布が均衡していると仮定している。
テールクラスのサンプルの重みを推定し,知識伝達に基づくキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2023-04-13T13:48:18Z) - Proposal Distribution Calibration for Few-Shot Object Detection [65.19808035019031]
few-shot object detection (FSOD)では、重度のサンプル不均衡を軽減するために、2段階の訓練パラダイムが広く採用されている。
残念ながら、極端なデータ不足は、提案の分布バイアスを増大させ、RoIヘッドが新しいクラスに進化するのを妨げます。
本稿では,RoIヘッドのローカライゼーションと分類能力を高めるために,単純かつ効果的な提案分布キャリブレーション(PDC)手法を提案する。
論文 参考訳(メタデータ) (2022-12-15T05:09:11Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - Free Lunch for Few-shot Learning: Distribution Calibration [10.474018806591397]
キャリブレーション分布から抽出した特徴を用いて学習した単純なロジスティック回帰分類器は、2つのデータセットにおける最先端の精度より優れていることを示す。
論文 参考訳(メタデータ) (2021-01-16T07:58:40Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。