論文の概要: Self-Paced Imbalance Rectification for Class Incremental Learning
- arxiv url: http://arxiv.org/abs/2202.03703v1
- Date: Tue, 8 Feb 2022 07:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 14:57:22.201540
- Title: Self-Paced Imbalance Rectification for Class Incremental Learning
- Title(参考訳): クラスインクリメンタルラーニングのための自己修復型不均衡整流
- Authors: Zhiheng Liu, Kai Zhu and Yang Cao
- Abstract要約: 本稿では,表現学習段階における漸進的バランスを動的に維持する自己対応型不均衡補正手法を提案する。
3つのベンチマークの実験では、安定したインクリメンタルパフォーマンスを示し、最先端の手法を大幅に上回っている。
- 参考スコア(独自算出の注目度): 6.966383162917331
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exemplar-based class-incremental learning is to recognize new classes while
not forgetting old ones, whose samples can only be saved in limited memory. The
ratio fluctuation of new samples to old exemplars, which is caused by the
variation of memory capacity at different environments, will bring challenges
to stabilize the incremental optimization process. To address this problem, we
propose a novel self-paced imbalance rectification scheme, which dynamically
maintains the incremental balance during the representation learning phase.
Specifically, our proposed scheme consists of a frequency compensation strategy
that adjusts the logits margin between old and new classes with the
corresponding number ratio to strengthen the expression ability of the old
classes, and an inheritance transfer strategy to reduce the representation
confusion by estimating the similarity of different classes in the old
embedding space. Furthermore, a chronological attenuation mechanism is proposed
to mitigate the repetitive optimization of the older classes at multiple
step-wise increments. Extensive experiments on three benchmarks demonstrate
stable incremental performance, significantly outperforming the
state-of-the-art methods.
- Abstract(参考訳): exemplarベースのクラスインクリメンタルラーニングは、古いクラスを忘れずに新しいクラスを認識し、そのサンプルは限られたメモリでしか保存できない。
異なる環境におけるメモリ容量の変動に起因する古い例に対する新しいサンプルの比率変動は、漸進的な最適化プロセスの安定化に困難をもたらす。
この問題に対処するために,表現学習段階における漸進的バランスを動的に維持する,自己対応型不均衡補正手法を提案する。
具体的には,古いクラスと新しいクラス間のロジットマージンを対応する数比で調整し,古いクラスの表現能力を強化する周波数補償戦略と,古い組込み空間における異なるクラスの類似性を推定することで表現の混乱を低減させる継承転送戦略からなる。
さらに、複数のステップワイドインクリメントで古いクラスの繰り返し最適化を緩和するために、時間的減衰機構を提案する。
3つのベンチマークに関する広範な実験は、安定したインクリメンタルなパフォーマンスを示し、最先端のメソッドを著しく上回っている。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Enhancing cross-domain detection: adaptive class-aware contrastive
transformer [15.666766743738531]
対象領域の不十分なラベルは、クラス不均衡とモデル性能劣化の問題を悪化させる。
逆学習と平均教師フレームワークに基づくクラス対応クロスドメイン検出変換器を提案する。
論文 参考訳(メタデータ) (2024-01-24T07:11:05Z) - Non-exemplar Class-incremental Learning by Random Auxiliary Classes
Augmentation and Mixed Features [37.51376572211081]
クラス増分学習(クラス増分学習)とは、古いクラスのサンプルを保存することなく、新しいクラスと古いクラスを分類することである。
本稿では,Random Auxiliary Class Augmentation と Mixed Feature を組み合わせたRAMF と呼ばれる実効非経験的手法を提案する。
論文 参考訳(メタデータ) (2023-04-16T06:33:43Z) - Self-Sustaining Representation Expansion for Non-Exemplar
Class-Incremental Learning [138.35405462309456]
非典型的なクラス増分学習は、古いクラスサンプルを保存できない場合に、古いクラスと新しいクラスの両方を認識することである。
提案手法は,メインブランチ拡張とサイドブランチ更新を融合して旧機能を維持する構造再構成戦略から成り立っている。
蒸留プロセスに新しい試料を選択的に組み込むことにより, 旧クラスと新クラスの識別性を高めるための試作機選択機構を提案する。
論文 参考訳(メタデータ) (2022-03-12T06:42:20Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Self-Promoted Prototype Refinement for Few-Shot Class-Incremental
Learning [81.10531943939365]
クラスインクリメンタルな学習は、サンプルが少ないと新しいクラスを認識し、古いクラスを忘れないことである。
本稿では,様々なエピソードに特徴表現を適応させる新しいインクリメンタルなプロトタイプ学習手法を提案する。
3つのベンチマークデータセットの実験では、上記の段階的なパフォーマンスを示し、それぞれ13%、17%、11%のマージンで最先端のメソッドを上回っている。
論文 参考訳(メタデータ) (2021-07-19T14:31:33Z) - Breadcrumbs: Adversarial Class-Balanced Sampling for Long-tailed
Recognition [95.93760490301395]
クラスごとのサンプル数が非バランスである長尾認識の問題は、考慮されます。
これは例の繰り返しサンプリングによるものであり、特徴空間拡張によって対処できると仮定される。
トレーニング中のエポック間の機能のバックトラッキングに基づく,新たな機能拡張戦略であるemanateを提案する。
新たなサンプリング手順であるbreadcrumbは、余分な計算なしで逆のクラスバランスのサンプリングを実装するために導入された。
論文 参考訳(メタデータ) (2021-05-01T00:21:26Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。