論文の概要: Robust Feature Learning and Global Variance-Driven Classifier Alignment
for Long-Tail Class Incremental Learning
- arxiv url: http://arxiv.org/abs/2311.01227v1
- Date: Thu, 2 Nov 2023 13:28:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 13:22:46.521845
- Title: Robust Feature Learning and Global Variance-Driven Classifier Alignment
for Long-Tail Class Incremental Learning
- Title(参考訳): 長期学習におけるロバスト特徴学習とグローバル変数駆動型分類器アライメント
- Authors: Jayateja Kalla and Soma Biswas
- Abstract要約: 本稿では,長期クラスインクリメンタルラーニングの強化を目的とした2段階フレームワークを提案する。
本研究は,ロングテールクラスインクリメンタルラーニングにおいて,テールクラスの表現不足がもたらす課題に対処する。
提案するフレームワークは,任意のクラスインクリメンタル学習メソッドをモジュールとしてシームレスに統合することができる。
- 参考スコア(独自算出の注目度): 20.267257778779992
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a two-stage framework designed to enhance long-tail
class incremental learning, enabling the model to progressively learn new
classes, while mitigating catastrophic forgetting in the context of long-tailed
data distributions. Addressing the challenge posed by the under-representation
of tail classes in long-tail class incremental learning, our approach achieves
classifier alignment by leveraging global variance as an informative measure
and class prototypes in the second stage. This process effectively captures
class properties and eliminates the need for data balancing or additional layer
tuning. Alongside traditional class incremental learning losses in the first
stage, the proposed approach incorporates mixup classes to learn robust feature
representations, ensuring smoother boundaries. The proposed framework can
seamlessly integrate as a module with any class incremental learning method to
effectively handle long-tail class incremental learning scenarios. Extensive
experimentation on the CIFAR-100 and ImageNet-Subset datasets validates the
approach's efficacy, showcasing its superiority over state-of-the-art
techniques across various long-tail CIL settings.
- Abstract(参考訳): 本稿では,長期データ分布の文脈における破滅的な忘れを軽減しつつ,段階的に新しいクラスを学習できるようにするための2段階のフレームワークを提案する。
ロングテールクラスインクリメンタルラーニングにおいてテールクラスを過小表現することで生じる課題に対処し,第2段階ではグローバル分散を情報尺度として活用し,クラスプロトタイプを活用し,分類器アライメントを実現する。
このプロセスは、効果的にクラスプロパティをキャプチャし、データバランシングや追加のレイヤチューニングの必要性をなくします。
最初の段階での従来のクラスインクリメンタルな学習損失に加えて、提案手法では混合クラスを組み込んで堅牢な特徴表現を学習し、よりスムーズな境界を確保する。
提案するフレームワークは,任意のクラスインクリメンタル学習手法をモジュールとしてシームレスに統合して,長いクラスインクリメンタル学習シナリオを効果的に処理することができる。
CIFAR-100とImageNet-Subsetデータセットの大規模な実験は、アプローチの有効性を検証する。
関連論文リスト
- TaE: Task-aware Expandable Representation for Long Tail Class Incremental Learning [42.630413950957795]
本稿では,各タスクから多様な表現を学習するための新しいタスク対応拡張(TaE)フレームワークを提案する。
TaEは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-08T16:37:04Z) - SLCA: Slow Learner with Classifier Alignment for Continual Learning on a
Pre-trained Model [73.80068155830708]
予備学習モデル(CLPM)を用いた連続学習のための広範囲な解析法を提案する。
Slow Learner with Alignment (SLCA) というシンプルなアプローチを提案する。
さまざまなシナリオにおいて、私たちの提案はCLPMの大幅な改善を提供します。
論文 参考訳(メタデータ) (2023-03-09T08:57:01Z) - Class-Incremental Learning with Cross-Space Clustering and Controlled
Transfer [9.356870107137093]
クラス増分学習では,従来のクラスに関する知識を維持しつつ,新しいクラスを継続的に学習することが期待される。
クラスインクリメンタルラーニングのための蒸留法に基づく2つの目的を提案する。
論文 参考訳(メタデータ) (2022-08-07T16:28:02Z) - DILF-EN framework for Class-Incremental Learning [9.969403314560179]
モデル予測における破滅的忘れの影響は,同じ画像の向きの変化によって異なることを示す。
本稿では,画像の異なる方向の予測を組み合わせた新しいデータアンサンブル手法を提案する。
また、2つの漸進的な学習目標でネットワークを協調的に訓練する新しい2段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-23T06:49:24Z) - Long-tail Recognition via Compositional Knowledge Transfer [60.03764547406601]
末尾クラスの少数ショット問題に対処する長尾認識のための新しい戦略を導入する。
我々の目標は、情報に富んだ共通クラスから得られた知識を、意味的に類似しているがデータに富む稀なクラスに伝達することである。
実験結果から,本手法は稀なクラスにおいて,堅牢な共通クラス性能を維持しつつ,大幅な性能向上を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-13T15:48:59Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Class-Balanced Distillation for Long-Tailed Visual Recognition [100.10293372607222]
実世界のイメージはしばしばクラスごとの画像数の著しい不均衡によって特徴づけられ、ロングテール分布に繋がる。
本研究では、インスタンスサンプリングで学習した特徴表現が長尾設定では最適とは程遠いという重要な観察を行うことで、新しいフレームワークを提案する。
我々の主な貢献は、知識蒸留を利用して特徴表現を強化する新しい訓練方法である。
論文 参考訳(メタデータ) (2021-04-12T08:21:03Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Learning to Segment the Tail [91.38061765836443]
実世界の視覚認識には、大規模な長い尾を持つデータの極端なサンプル不均衡を扱う必要がある。
我々は,LVISタスクの課題に対して,データ全体をバランスの取れた部分に分割し,各部分の征服に漸進的な学習を適用する,"分別/分別"戦略を提案する。
論文 参考訳(メタデータ) (2020-04-02T09:39:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。