論文の概要: Long-Tailed Class Incremental Learning
- arxiv url: http://arxiv.org/abs/2210.00266v1
- Date: Sat, 1 Oct 2022 12:41:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 15:24:59.565771
- Title: Long-Tailed Class Incremental Learning
- Title(参考訳): 長期学習型インクリメンタルラーニング
- Authors: Xialei Liu, Yu-Song Hu, Xu-Sheng Cao, Andrew D. Bagdanov, Ke Li,
Ming-Ming Cheng
- Abstract要約: クラスインクリメンタルラーニング(CIL)では、モデルは古いクラスを忘れずに、逐次的に新しいクラスを学習しなければならない。
本稿では,長尾CILシナリオを2つ提案する。
その結果,CIFAR-100 と ImageNet-Subset に対するアプローチの優れた性能(平均インクリメンタル精度6.44ポイント)が示された。
- 参考スコア(独自算出の注目度): 72.4894111493918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In class incremental learning (CIL) a model must learn new classes in a
sequential manner without forgetting old ones. However, conventional CIL
methods consider a balanced distribution for each new task, which ignores the
prevalence of long-tailed distributions in the real world. In this work we
propose two long-tailed CIL scenarios, which we term ordered and shuffled
LT-CIL. Ordered LT-CIL considers the scenario where we learn from head classes
collected with more samples than tail classes which have few. Shuffled LT-CIL,
on the other hand, assumes a completely random long-tailed distribution for
each task. We systematically evaluate existing methods in both LT-CIL scenarios
and demonstrate very different behaviors compared to conventional CIL
scenarios. Additionally, we propose a two-stage learning baseline with a
learnable weight scaling layer for reducing the bias caused by long-tailed
distribution in LT-CIL and which in turn also improves the performance of
conventional CIL due to the limited exemplars. Our results demonstrate the
superior performance (up to 6.44 points in average incremental accuracy) of our
approach on CIFAR-100 and ImageNet-Subset. The code is available at
https://github.com/xialeiliu/Long-Tailed-CIL
- Abstract(参考訳): クラスインクリメンタル学習(cil)では、モデルは古いクラスを忘れずに、シーケンシャルに新しいクラスを学習する必要があります。
しかし,従来のcil法は,実世界におけるロングテール分布の発生を無視する新しいタスクごとにバランスのとれた分布を考える。
本研究では, LT-CILを順序付けし, シャッフルした2つの長鎖CILシナリオを提案する。
Ordered LT-CILは、少ない尾クラスよりも多くのサンプルで収集されたヘッドクラスから学習するシナリオを考える。
一方、Shuffled LT-CILはタスク毎に完全にランダムな長い尾の分布を仮定する。
LT-CILシナリオの既存手法を体系的に評価し,従来のCILシナリオとは大きく異なる振る舞いを示す。
さらに,LT-CILの長期分布によるバイアスを低減するため,学習可能な重みスケーリング層を備えた2段階学習ベースラインを提案する。
その結果,CIFAR-100 と ImageNet-Subset に対するアプローチの優れた性能(平均インクリメンタル精度6.44ポイント)が示された。
コードはhttps://github.com/xialeiliu/Long-Tailed-CILで公開されている。
関連論文リスト
- Three Heads Are Better Than One: Complementary Experts for Long-Tailed Semi-supervised Learning [74.44500692632778]
本稿では,様々なクラス分布をモデル化するComPlementary Experts (CPE) を提案する。
CPEは、CIFAR-10-LT、CIFAR-100-LT、STL-10-LTのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-25T11:54:07Z) - Dynamic Residual Classifier for Class Incremental Learning [4.02487511510606]
古いクラスと新しいクラスの間に不均衡なサンプル番号があれば、学習はバイアスを受けることができる。
既存のCIL手法は、例えば、調整された損失やデータ再サンプリング手法など、Longtailed (LT) 認識技術を利用する。
この挑戦的なシナリオに対処するために、新しい動的残留適応(DRC)を提案する。
論文 参考訳(メタデータ) (2023-08-25T11:07:11Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Learning in Imperfect Environment: Multi-Label Classification with
Long-Tailed Distribution and Partial Labels [53.68653940062605]
新しいタスク, 部分ラベリングとLong-Tailed Multi-Label Classification (PLT-MLC) を導入する。
その結果,ほとんどのLT-MLCとPL-MLCは劣化MLCの解決に失敗していることがわかった。
textbfCOrrection $rightarrow$ textbfModificattextbfIon $rightarrow$ balantextbfCe。
論文 参考訳(メタデータ) (2023-04-20T20:05:08Z) - Invariant Feature Learning for Generalized Long-Tailed Classification [63.0533733524078]
我々は,両種類の不均衡を共同で検討するために,一般化長大分類(GLT)を導入する。
提案した2つのベンチマーク(ImageNet-GLTとMSCOCO-GLT)では,ほとんどのクラスワイドLTメソッドが退化している。
GLTの最初の強力なベースラインとして不変特徴学習(IFL)法を提案する。
論文 参考訳(メタデータ) (2022-07-19T18:27:42Z) - Feature Generation for Long-tail Classification [36.186909933006675]
そこで本研究では,テールカテゴリーの分布を推定して有意義な特徴を生成する方法を示す。
また、t-SNE視覚化を用いて生成した特徴の質的分析を行い、末尾クラス分布のキャリブレーションに最も近い隣人を解析する。
論文 参考訳(メタデータ) (2021-11-10T21:34:29Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。