論文の概要: Long-Tailed Classification with Gradual Balanced Loss and Adaptive
Feature Generation
- arxiv url: http://arxiv.org/abs/2203.00452v1
- Date: Mon, 28 Feb 2022 01:20:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 13:49:38.694186
- Title: Long-Tailed Classification with Gradual Balanced Loss and Adaptive
Feature Generation
- Title(参考訳): 経時的バランス損失と適応的特徴量生成を用いた長期分類
- Authors: Zihan Zhang and Xiang Xiang
- Abstract要約: 本研究では,不均衡を緩和する新しい手法であるGradual Balanced Loss and Adaptive Feature Generator (GLAG)を提案する。
CIFAR100-LT、ImageNetLT、iNaturalistなどのロングテールデータセットで最先端の結果が得られた。
- 参考スコア(独自算出の注目度): 19.17617301462919
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The real-world data distribution is essentially long-tailed, which poses
great challenge to the deep model. In this work, we propose a new method,
Gradual Balanced Loss and Adaptive Feature Generator (GLAG) to alleviate
imbalance. GLAG first learns a balanced and robust feature model with Gradual
Balanced Loss, then fixes the feature model and augments the under-represented
tail classes on the feature level with the knowledge from well-represented head
classes. And the generated samples are mixed up with real training samples
during training epochs. Gradual Balanced Loss is a general loss and it can
combine with different decoupled training methods to improve the original
performance. State-of-the-art results have been achieved on long-tail datasets
such as CIFAR100-LT, ImageNetLT, and iNaturalist, which demonstrates the
effectiveness of GLAG for long-tailed visual recognition.
- Abstract(参考訳): 現実世界のデータ分散は本質的にロングテールであり、深層モデルにとって大きな課題となる。
本研究では,不均衡を緩和する新しい手法であるGradual Balanced Loss and Adaptive Feature Generator (GLAG)を提案する。
GLAGはまずGradual Balanced Lossでバランスの取れた、堅牢な機能モデルを学び、その後、機能モデルを修正し、よく表現されたヘッドクラスの知識で、機能レベルで表現されていないテールクラスを拡張します。
そして生成されたサンプルは、トレーニング時代の実際のトレーニングサンプルと混ぜ合わされる。
Gradual Balanced Lossは一般的な損失であり、異なる分離されたトレーニングメソッドを組み合わせることで、元のパフォーマンスを改善することができる。
CIFAR100-LT、ImageNetLT、iNaturalistのような長い尾のデータセットで最先端の結果が得られ、長尾の視覚認識におけるGLAGの有効性を実証している。
関連論文リスト
- FedLF: Adaptive Logit Adjustment and Feature Optimization in Federated Long-Tailed Learning [5.23984567704876]
フェデレーション学習は、分散機械学習におけるプライバシの保護という課題にパラダイムを提供する。
伝統的なアプローチは、グローバルな長期データにおけるクラスワイドバイアスの現象に対処できない。
新しい手法であるFedLFは、適応ロジット調整、連続クラス中心最適化、特徴デコリレーションという、局所的なトレーニングフェーズに3つの修正を導入している。
論文 参考訳(メタデータ) (2024-09-18T16:25:29Z) - Gradient Reweighting: Towards Imbalanced Class-Incremental Learning [8.438092346233054]
CIL(Class-Incremental Learning)は、非定常データから新しいクラスを継続的に認識するためにモデルを訓練する。
CILの大きな課題は、非一様分布を特徴とする実世界のデータに適用する場合である。
この二重不均衡問題により、FC層に偏りのある勾配更新が生じ、CILの過度/過度な適合と破滅的な忘れが引き起こされる。
論文 参考訳(メタデータ) (2024-02-28T18:08:03Z) - Orthogonal Uncertainty Representation of Data Manifold for Robust
Long-Tailed Learning [52.021899899683675]
長い尾の分布を持つシナリオでは、尾のサンプルが不足しているため、モデルが尾のクラスを識別する能力は制限される。
モデルロバストネスの長期的現象を改善するために,特徴埋め込みの直交不確実性表現(OUR)とエンドツーエンドのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-10-16T05:50:34Z) - A dual-branch model with inter- and intra-branch contrastive loss for
long-tailed recognition [7.225494453600985]
長い尾のデータセットで訓練されたモデルは、テールクラスへの適応性が低く、決定境界は曖昧である。
我々は,不均衡学習枝と対照学習枝(CoLB)を含む,単純で効果的なDual-Branch Long-Tailed Recognition (DB-LTR)を提案する。
CoLBは、テールクラスに適応する際のモデルの能力を改善し、不均衡な学習ブランチを支援して、よく表現された特徴空間と識別的決定境界を学習する。
論文 参考訳(メタデータ) (2023-09-28T03:31:11Z) - The Equalization Losses: Gradient-Driven Training for Long-tailed Object
Recognition [84.51875325962061]
本稿では,長距離問題に対処するための勾配駆動型学習機構を提案する。
我々は、勾配駆動損失関数の新たなファミリー、すなわち等化損失を導入する。
我々の手法は一貫してベースラインモデルより優れています。
論文 参考訳(メタデータ) (2022-10-11T16:00:36Z) - Improving GANs for Long-Tailed Data through Group Spectral
Regularization [51.58250647277375]
本稿では, スペクトル爆発によるモード崩壊を防止する新しいグループスペクトル正規化器 (gSR) を提案する。
我々は,gSRが既存の拡張および正規化技術と効果的に組み合わせることで,長期化データ上での最先端の画像生成性能が向上することを発見した。
論文 参考訳(メタデータ) (2022-08-21T17:51:05Z) - Improving Tail-Class Representation with Centroid Contrastive Learning [145.73991900239017]
本稿では,長い尾を持つ表現学習を改善するために,補間型セントロイドコントラスト学習(ICCL)を提案する。
ICCLは、クラス別サンプルとクラス別サンプルの2つの画像を補間し、ICCLの表現が両方のソースクラスのセントロイドを取得するために使用されるようにモデルを訓練する。
我々の結果は、現実世界の長い尾の分布を持つiNaturalist 2018データセットで2.8%の精度向上を示した。
論文 参考訳(メタデータ) (2021-10-19T15:24:48Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - Distributional Robustness Loss for Long-tail Learning [20.800627115140465]
現実世界のデータはしばしばアンバランスで長尾ですが、深いモデルは頻繁なクラスの存在下でまれなクラスを認識するのに苦労します。
ディープネットワークの特徴抽出器部分は,このバイアスに大きく悩まされていることを示す。
モデルが頭と尾の両方のクラスで高品質の表現を学ぶことを奨励するロバストネス理論に基づく新しい損失を提案します。
論文 参考訳(メタデータ) (2021-04-07T11:34:04Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。