論文の概要: Solving the long-tailed distribution problem by exploiting the synergies and balance of different techniques
- arxiv url: http://arxiv.org/abs/2501.13756v1
- Date: Thu, 23 Jan 2025 15:35:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:59:42.457654
- Title: Solving the long-tailed distribution problem by exploiting the synergies and balance of different techniques
- Title(参考訳): 異なる手法の相乗効果とバランスを利用した長期分布問題の解法
- Authors: Ziheng Wang, Toni Lassila, Sharib Ali,
- Abstract要約: 長い尾のデータ分布は一般的であり、経験的リスク最小化で訓練されたモデルでは、尾のクラスを効果的に学習し分類することは困難である。
SCL(Supervised Contrastive Learning)、RSG(Rare-Class Sample Generator)、LDAM(Label-Distribution-Aware Margin Loss)の3つのロングテール認識技術について検討した。
- 参考スコア(独自算出の注目度): 6.068761166911576
- License:
- Abstract: In real-world data, long-tailed data distribution is common, making it challenging for models trained on empirical risk minimisation to learn and classify tail classes effectively. While many studies have sought to improve long tail recognition by altering the data distribution in the feature space and adjusting model decision boundaries, research on the synergy and corrective approach among various methods is limited. Our study delves into three long-tail recognition techniques: Supervised Contrastive Learning (SCL), Rare-Class Sample Generator (RSG), and Label-Distribution-Aware Margin Loss (LDAM). SCL enhances intra-class clusters based on feature similarity and promotes clear inter-class separability but tends to favour dominant classes only. When RSG is integrated into the model, we observed that the intra-class features further cluster towards the class centre, which demonstrates a synergistic effect together with SCL's principle of enhancing intra-class clustering. RSG generates new tail features and compensates for the tail feature space squeezed by SCL. Similarly, LDAM is known to introduce a larger margin specifically for tail classes; we demonstrate that LDAM further bolsters the model's performance on tail classes when combined with the more explicit decision boundaries achieved by SCL and RSG. Furthermore, SCL can compensate for the dominant class accuracy sacrificed by RSG and LDAM. Our research emphasises the synergy and balance among the three techniques, with each amplifying the strengths of the others and mitigating their shortcomings. Our experiment on long-tailed distribution datasets, using an end-to-end architecture, yields competitive results by enhancing tail class accuracy without compromising dominant class performance, achieving a balanced improvement across all classes.
- Abstract(参考訳): 実世界のデータでは、長い尾を持つデータ分布が一般的であり、経験的リスク最小化で訓練されたモデルが尾のクラスを効果的に学習し分類することは困難である。
特徴空間におけるデータ分布を変化させ、モデル決定境界を調整することで、長い尾の認識を改善するために多くの研究が行われてきたが、様々な手法の相乗的・補正的アプローチの研究は限られている。
提案手法は,SCL(Supervised Contrastive Learning),RSG(Rare-Class Sample Generator),LDAM(Label-Distribution-Aware Margin Loss)の3種類である。
SCLは特徴的類似性に基づいてクラス内のクラスタを強化し、クラス間の明確な分離性を促進するが、支配的なクラスのみを優先する傾向にある。
RSGをモデルに組み込むと、クラス内の特徴がクラス中心に向かってさらにクラスタ化され、SCLのクラス内クラスタリングの強化原理と相乗効果が示される。
RSGは新しいテール特徴を生成し、SCLによって圧縮されたテール特徴空間を補償する。
同様に、LDAMはテールクラスに特化してより大きなマージンを導入することで知られており、SCLとRSGが達成したより明確な決定境界と組み合わせることで、LDAMはテールクラスにおけるモデルの性能をさらに向上させることを示した。
さらに、SCLは、RSGとLDAMが犠牲にした支配階級の精度を補うことができる。
本研究は,3つの技術間の相乗効果とバランスを強調し,それぞれが他者の強みを増幅し,欠点を緩和する。
エンド・ツー・エンドのアーキテクチャを用いた長期分布データセットの実験では、上位クラスの性能を損なうことなくテールクラスの精度を向上し、全てのクラスでバランスの取れた改善を達成し、競争結果を得る。
関連論文リスト
- Long-Tail Learning with Rebalanced Contrastive Loss [1.4443576276330394]
本稿では、長い尾の分類精度を高めるための効率的な方法であるRe Balanced Contrastive Learning(RCL)を提案する。
RCLは、特徴空間のバランス性、クラス内コンパクト性、正規化の3つの主な側面に対処する。
3つのベンチマークデータセットに対する実験では、学習した埋め込みの豊かさと、BCLフレームワークに提供されるトップ1バランスの精度の向上が示されている。
論文 参考訳(メタデータ) (2023-12-04T09:27:03Z) - Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - Combating Representation Learning Disparity with Geometric Harmonization [50.29859682439571]
本稿では,表現学習におけるカテゴリレベルの均一性を促進するために,新しい幾何調和法を提案する。
我々の提案はSSLの設定を変更せず、低コストで既存のメソッドに容易に統合できる。
論文 参考訳(メタデータ) (2023-10-26T17:41:11Z) - A dual-branch model with inter- and intra-branch contrastive loss for
long-tailed recognition [7.225494453600985]
長い尾のデータセットで訓練されたモデルは、テールクラスへの適応性が低く、決定境界は曖昧である。
我々は,不均衡学習枝と対照学習枝(CoLB)を含む,単純で効果的なDual-Branch Long-Tailed Recognition (DB-LTR)を提案する。
CoLBは、テールクラスに適応する際のモデルの能力を改善し、不均衡な学習ブランチを支援して、よく表現された特徴空間と識別的決定境界を学習する。
論文 参考訳(メタデータ) (2023-09-28T03:31:11Z) - Dual Compensation Residual Networks for Class Imbalanced Learning [98.35401757647749]
そこで本研究では,尾と頭の両方に適合する2次元補償残差ネットワークを提案する。
オーバーフィッティングを引き起こす重要な要因は、トレーニングとテールクラスのテストデータの間に深刻な特徴ドリフトがあることである。
また,不適合問題を軽減するためにResidual Balanced Multi-Proxies分類器を提案する。
論文 参考訳(メタデータ) (2023-08-25T04:06:30Z) - ECL: Class-Enhancement Contrastive Learning for Long-tailed Skin Lesion
Classification [7.7379419801373475]
皮膚画像データセットは、しばしば不均衡なデータ分布に悩まされ、コンピュータ支援皮膚疾患の診断が困難になる。
本稿では,マイノリティクラスの情報を豊かにし,異なるクラスを平等に扱うクラス・エンハンスメント・コントラシティブ・ラーニング(ECL)を提案する。
論文 参考訳(メタデータ) (2023-07-09T09:29:15Z) - Meta-Causal Feature Learning for Out-of-Distribution Generalization [71.38239243414091]
本稿では,協調タスク生成モジュール (BTG) とメタ因果特徴学習モジュール (MCFL) を含む,バランス付きメタ因果学習器 (BMCL) を提案する。
BMCLは、分類のためのクラス不変の視覚領域を効果的に識別し、最先端の手法の性能を向上させるための一般的なフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-08-22T09:07:02Z) - Improving GANs for Long-Tailed Data through Group Spectral
Regularization [51.58250647277375]
本稿では, スペクトル爆発によるモード崩壊を防止する新しいグループスペクトル正規化器 (gSR) を提案する。
我々は,gSRが既存の拡張および正規化技術と効果的に組み合わせることで,長期化データ上での最先端の画像生成性能が向上することを発見した。
論文 参考訳(メタデータ) (2022-08-21T17:51:05Z) - Long-Tailed Classification with Gradual Balanced Loss and Adaptive
Feature Generation [19.17617301462919]
本研究では,不均衡を緩和する新しい手法であるGradual Balanced Loss and Adaptive Feature Generator (GLAG)を提案する。
CIFAR100-LT、ImageNetLT、iNaturalistなどのロングテールデータセットで最先端の結果が得られた。
論文 参考訳(メタデータ) (2022-02-28T01:20:35Z) - Targeted Supervised Contrastive Learning for Long-Tailed Recognition [50.24044608432207]
実世界のデータは、しばしば重いクラス不均衡の長い尾の分布を示す。
教師付きコントラスト学習は性能向上に寄与するが、過去のベースラインは不均衡なデータ分布によってもたらされる不均一さに悩まされている。
我々は,超球面上の特徴分布の均一性を改善するための教師付きコントラスト学習(TSC)を提案する。
論文 参考訳(メタデータ) (2021-11-27T22:40:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。