論文の概要: Dual Compensation Residual Networks for Class Imbalanced Learning
- arxiv url: http://arxiv.org/abs/2308.13165v1
- Date: Fri, 25 Aug 2023 04:06:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 15:10:13.389837
- Title: Dual Compensation Residual Networks for Class Imbalanced Learning
- Title(参考訳): クラス不均衡学習のための二重補償残差ネットワーク
- Authors: Ruibing Hou, Hong Chang, Bingpeng Ma, Shiguang Shan and Xilin Chen
- Abstract要約: そこで本研究では,尾と頭の両方に適合する2次元補償残差ネットワークを提案する。
オーバーフィッティングを引き起こす重要な要因は、トレーニングとテールクラスのテストデータの間に深刻な特徴ドリフトがあることである。
また,不適合問題を軽減するためにResidual Balanced Multi-Proxies分類器を提案する。
- 参考スコア(独自算出の注目度): 98.35401757647749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning generalizable representation and classifier for class-imbalanced
data is challenging for data-driven deep models. Most studies attempt to
re-balance the data distribution, which is prone to overfitting on tail classes
and underfitting on head classes. In this work, we propose Dual Compensation
Residual Networks to better fit both tail and head classes. Firstly, we propose
dual Feature Compensation Module (FCM) and Logit Compensation Module (LCM) to
alleviate the overfitting issue. The design of these two modules is based on
the observation: an important factor causing overfitting is that there is
severe feature drift between training and test data on tail classes. In
details, the test features of a tail category tend to drift towards feature
cloud of multiple similar head categories. So FCM estimates a multi-mode
feature drift direction for each tail category and compensate for it.
Furthermore, LCM translates the deterministic feature drift vector estimated by
FCM along intra-class variations, so as to cover a larger effective
compensation space, thereby better fitting the test features. Secondly, we
propose a Residual Balanced Multi-Proxies Classifier (RBMC) to alleviate the
under-fitting issue. Motivated by the observation that re-balancing strategy
hinders the classifier from learning sufficient head knowledge and eventually
causes underfitting, RBMC utilizes uniform learning with a residual path to
facilitate classifier learning. Comprehensive experiments on Long-tailed and
Class-Incremental benchmarks validate the efficacy of our method.
- Abstract(参考訳): クラス不均衡データのための一般化表現と分類は、データ駆動型深層モデルにとって困難である。
多くの研究は、テールクラスにオーバーフィットし、ヘッドクラスにオーバーフィットしやすいデータ分散の再バランスを試みている。
本研究では,テールクラスとヘッドクラスの両方に適合する2重補償残差ネットワークを提案する。
まず,2つの特徴補償モジュール (FCM) とロジット補償モジュール (LCM) を提案する。
これら2つのモジュールの設計は、オーバーフィッティングを引き起こす重要な要因は、トレーニングとテールクラスのテストデータの間に深刻な特徴ドリフトがあることである。
詳しくは、テールカテゴリのテスト機能は、複数の類似したヘッドカテゴリのフィーチャークラウドに移行しがちである。
したがって、fcmは各テールカテゴリのマルチモード特徴ドリフト方向を推定し、補償する。
さらに、LCMは、FCMによって推定される決定論的特徴ドリフトベクトルをクラス内変動に沿って変換し、より大きな有効補償空間をカバーすることにより、テスト特徴の適合性を向上する。
次に,不適合問題を軽減するために,Residual Balanced Multi-Proxies Classifier (RBMC)を提案する。
再バランス戦略が分類器の十分な頭脳知識の習得を妨げ、最終的に不適合を引き起こすという観察に動機づけられ、rbmcは一様学習と残留経路を用いて分類器の学習を容易にする。
本手法の有効性を検証するために,Long-tailedおよびClass-Incrementalベンチマークの総合的な実験を行った。
関連論文リスト
- A dual-branch model with inter- and intra-branch contrastive loss for
long-tailed recognition [7.225494453600985]
長い尾のデータセットで訓練されたモデルは、テールクラスへの適応性が低く、決定境界は曖昧である。
我々は,不均衡学習枝と対照学習枝(CoLB)を含む,単純で効果的なDual-Branch Long-Tailed Recognition (DB-LTR)を提案する。
CoLBは、テールクラスに適応する際のモデルの能力を改善し、不均衡な学習ブランチを支援して、よく表現された特徴空間と識別的決定境界を学習する。
論文 参考訳(メタデータ) (2023-09-28T03:31:11Z) - Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - Feature Fusion from Head to Tail for Long-Tailed Visual Recognition [39.86973663532936]
テールクラスにおけるセマンティック情報の不十分に起因するバイアスのある決定境界は、認識精度の低下に寄与する重要な要因の1つである。
我々は,H2T(head-to-tail fusion)と呼ばれるヘッドクラスから多様な意味情報を移植することで,テールクラスを増強することを提案する。
理論的解析と実用実験の両方で、H2Tが決定境界に対してより最適化された解に寄与できることが示されている。
論文 参考訳(メタデータ) (2023-06-12T08:50:46Z) - Adjusting Logit in Gaussian Form for Long-Tailed Visual Recognition [37.62659619941791]
特徴レベルの観点から、長い尾の視覚認識の問題について検討する。
2つの新しいロジット調整法が提案され,計算オーバーヘッドの緩やかなモデル性能が向上した。
ベンチマークデータセットを用いて行った実験は,提案手法の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-18T02:06:06Z) - Leveraging Angular Information Between Feature and Classifier for
Long-tailed Learning: A Prediction Reformulation Approach [90.77858044524544]
分類器の重みを再バランスすることなく、包含角度で認識確率を再構成する。
予測形式再構成の性能向上に着想を得て, この角度予測の異なる特性について検討する。
CIFAR10/100-LT と ImageNet-LT を事前学習することなく、ピアメソッド間で最高の性能を得ることができる。
論文 参考訳(メタデータ) (2022-12-03T07:52:48Z) - Constructing Balance from Imbalance for Long-tailed Image Recognition [50.6210415377178]
多数派(頭)クラスと少数派(尾)クラスの不均衡は、データ駆動のディープニューラルネットワークを著しく歪ませる。
従来の手法では、データ分散、特徴空間、モデル設計の観点からデータ不均衡に対処していた。
ラベル空間を段階的に調整し,ヘッドクラスとテールクラスを分割することで,簡潔なパラダイムを提案する。
提案モデルでは,特徴評価手法も提供し,長期的特徴学習の道を開く。
論文 参考訳(メタデータ) (2022-08-04T10:22:24Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Exploring Classification Equilibrium in Long-Tailed Object Detection [29.069986049436157]
そこで本研究では,各カテゴリの平均分類スコアを用いて,各カテゴリの分類精度を示す。
EBL (Equilibrium Loss) と Memory-augmented Feature Smpling (MFS) 法による分類のバランスをとる。
尾クラスの検出性能を15.6 APで改善し、最新の長い尾を持つ物体検出器を1 AP以上で上回っている。
論文 参考訳(メタデータ) (2021-08-17T08:39:04Z) - Distributional Robustness Loss for Long-tail Learning [20.800627115140465]
現実世界のデータはしばしばアンバランスで長尾ですが、深いモデルは頻繁なクラスの存在下でまれなクラスを認識するのに苦労します。
ディープネットワークの特徴抽出器部分は,このバイアスに大きく悩まされていることを示す。
モデルが頭と尾の両方のクラスで高品質の表現を学ぶことを奨励するロバストネス理論に基づく新しい損失を提案します。
論文 参考訳(メタデータ) (2021-04-07T11:34:04Z) - Long-tailed Recognition by Routing Diverse Distribution-Aware Experts [64.71102030006422]
我々は、RoutIng Diverse Experts (RIDE) と呼ばれる新しい長い尾の分類器を提案する。
複数の専門家とのモデルの分散を減らし、分布を考慮した多様性損失によるモデルバイアスを減らし、動的専門家ルーティングモジュールによる計算コストを削減します。
RIDEは、CIFAR100-LT、ImageNet-LT、iNaturalist 2018ベンチマークで最先端を5%から7%上回っている。
論文 参考訳(メタデータ) (2020-10-05T06:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。