論文の概要: Adaptive Margin Global Classifier for Exemplar-Free Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2409.13275v1
- Date: Fri, 20 Sep 2024 07:07:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 07:51:11.341577
- Title: Adaptive Margin Global Classifier for Exemplar-Free Class-Incremental Learning
- Title(参考訳): 経験的自由クラス増分学習のためのアダプティブ・マージングローバル分類器
- Authors: Zhongren Yao, Xiaobin Chang,
- Abstract要約: 既存の手法は主にバイアス学習を扱うことに焦点を当てている。
本研究では,データ不均衡やサンプリングといった既存手法のバイアス要因を回避するために,分散ベースグローバル(DBGC)を導入する。
さらに重要なのは、古いクラスの妥協された分布は、単純な操作、分散(VE)によってシミュレートされることだ。
この損失は、Adaptive Margin Softmax Cross Entropy (AMarX)と等価であることが証明されている。
- 参考スコア(独自算出の注目度): 3.4069627091757178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exemplar-free class-incremental learning (EFCIL) presents a significant challenge as the old class samples are absent for new task learning. Due to the severe imbalance between old and new class samples, the learned classifiers can be easily biased toward the new ones. Moreover, continually updating the feature extractor under EFCIL can compromise the discriminative power of old class features, e.g., leading to less compact and more overlapping distributions across classes. Existing methods mainly focus on handling biased classifier learning. In this work, both cases are considered using the proposed method. Specifically, we first introduce a Distribution-Based Global Classifier (DBGC) to avoid bias factors in existing methods, such as data imbalance and sampling. More importantly, the compromised distributions of old classes are simulated via a simple operation, variance enlarging (VE). Incorporating VE based on DBGC results in a novel classification loss for EFCIL. This loss is proven equivalent to an Adaptive Margin Softmax Cross Entropy (AMarX). The proposed method is thus called Adaptive Margin Global Classifier (AMGC). AMGC is simple yet effective. Extensive experiments show that AMGC achieves superior image classification results on its own under a challenging EFCIL setting. Detailed analysis is also provided for further demonstration.
- Abstract(参考訳): EFCIL(Exemplar-free class-incremental Learning)は、新しいタスク学習に古いクラスサンプルが欠落しているため、大きな課題となる。
古いクラスと新しいクラスの厳密な不均衡のため、学習された分類器は、新しいクラスに偏りやすい。
さらに、EFCIL で機能抽出器を継続的に更新することは、例えば、古いクラスの特徴の識別能力を損なう可能性がある。
既存の手法は主にバイアス付き分類器学習を扱うことに焦点を当てている。
本研究では,提案手法を用いて両事例を考察する。
具体的には,データ不均衡やサンプリングといった既存手法のバイアス要因を回避するために,まず分散ベースグローバル分類器(DBGC)を導入する。
さらに重要なことに、古いクラスの妥協された分布は、単純な操作、分散拡大(VE)によってシミュレートされる。
VEをDBGCに組み込むと、EFCILの新たな分類が失われる。
この損失は、Adaptive Margin Softmax Cross Entropy (AMarX)と等価である。
そこで提案手法は,Adaptive Margin Global Classifier (AMGC) と呼ばれる。
AMGCは単純だが有効である。
広範囲な実験により、AMGCは、難易度の高いEFCIL設定下で、画像分類結果に優れていることが示されている。
詳細な分析も、さらなるデモのために提供されている。
関連論文リスト
- Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - Exemplar-free Class Incremental Learning via Discriminative and
Comparable One-class Classifiers [12.121885324463388]
インクリメンタルラーニングのための識別・比較可能な1クラス分類器(DisCOIL)という新しいフレームワークを提案する。
DisCOILはPOCの基本原理に従っているが、他の確立された1クラス分類器(ディープSVDDなど)の代わりに変分自動エンコーダ(VAE)を採用している。
この利点により、DisCOILは新クラスのVAEと対照的に新クラスのVAEを訓練し、新クラスのVAEは新クラスのサンプルに対してより良い再構築を強いるが、旧クラスの偽のサンプルではさらに悪化し、改良された。
論文 参考訳(メタデータ) (2022-01-05T07:16:34Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Minimum Variance Embedded Auto-associative Kernel Extreme Learning
Machine for One-class Classification [1.4146420810689422]
VAAKELMは、自己連想型カーネル極端学習マシンの拡張である。
アーキテクチャ内に最小分散情報を埋め込んで、クラス内の分散を減らす。
これは、一級分類に対する再構成に基づくアプローチに従い、再構成エラーを最小限にする。
論文 参考訳(メタデータ) (2020-11-24T17:00:30Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。