論文の概要: Invariant Feature Learning for Generalized Long-Tailed Classification
- arxiv url: http://arxiv.org/abs/2207.09504v2
- Date: Sat, 1 Apr 2023 12:11:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 01:05:51.518081
- Title: Invariant Feature Learning for Generalized Long-Tailed Classification
- Title(参考訳): 一般化ロングプレート分類のための不変特徴学習
- Authors: Kaihua Tang, Mingyuan Tao, Jiaxin Qi, Zhenguang Liu, Hanwang Zhang
- Abstract要約: 我々は,両種類の不均衡を共同で検討するために,一般化長大分類(GLT)を導入する。
提案した2つのベンチマーク(ImageNet-GLTとMSCOCO-GLT)では,ほとんどのクラスワイドLTメソッドが退化している。
GLTの最初の強力なベースラインとして不変特徴学習(IFL)法を提案する。
- 参考スコア(独自算出の注目度): 63.0533733524078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing long-tailed classification (LT) methods only focus on tackling the
class-wise imbalance that head classes have more samples than tail classes, but
overlook the attribute-wise imbalance. In fact, even if the class is balanced,
samples within each class may still be long-tailed due to the varying
attributes. Note that the latter is fundamentally more ubiquitous and
challenging than the former because attributes are not just implicit for most
datasets, but also combinatorially complex, thus prohibitively expensive to be
balanced. Therefore, we introduce a novel research problem: Generalized
Long-Tailed classification (GLT), to jointly consider both kinds of imbalances.
By "generalized", we mean that a GLT method should naturally solve the
traditional LT, but not vice versa. Not surprisingly, we find that most
class-wise LT methods degenerate in our proposed two benchmarks: ImageNet-GLT
and MSCOCO-GLT. We argue that it is because they over-emphasize the adjustment
of class distribution while neglecting to learn attribute-invariant features.
To this end, we propose an Invariant Feature Learning (IFL) method as the first
strong baseline for GLT. IFL first discovers environments with divergent
intra-class distributions from the imperfect predictions and then learns
invariant features across them. Promisingly, as an improved feature backbone,
IFL boosts all the LT line-up: one/two-stage re-balance, augmentation, and
ensemble. Codes and benchmarks are available on Github:
https://github.com/KaihuaTang/Generalized-Long-Tailed-Benchmarks.pytorch
- Abstract(参考訳): 既存のlong-tailed classification (lt)メソッドは、headクラスがtailクラスよりも多くのサンプルを持つクラス間の不均衡に取り組むことだけに焦点を当てています。
実際、クラスがバランスを取っていても、各クラス内のサンプルは、異なる属性のために長い尾を持つ可能性がある。
属性は、ほとんどのデータセットにとって暗黙的なだけでなく、組合せ的に複雑であるため、バランスをとるのに非常に高価である。
そこで我々は,両タイプの不均衡を共同で検討するために,GLT(Generalized Long-Tailed Classification)という新たな研究課題を導入する。
一般化」により、GLT法は従来のLTを自然に解くべきであるが、逆ではない。
意外なことに、提案した2つのベンチマーク(ImageNet-GLTとMSCOCO-GLT)では、ほとんどのクラスワイドLTメソッドが退化している。
属性不変の特徴を学習することを無視しながら、クラス分布の調整を過度に強調するためである。
そこで本研究では,GLTの最初の強力なベースラインとして,不変特徴学習(IFL)手法を提案する。
iflはまず、不完全な予測からクラス内分布を分離した環境を発見し、それらの間の不変な特徴を学習する。
機能バックボーンの改善として、iflは1/2ステージの再バランス、拡張、アンサンブルといったltラインアップをすべて強化する。
コードとベンチマークはgithubで入手できる。 https://github.com/kaihuatang/generalized-long-tailed-benchmarks.pytorch
関連論文リスト
- Boosting Consistency in Dual Training for Long-Tailed Semi-Supervised Learning [49.07038093130949]
Long-tailed semi-supervised learning (LTSSL)アルゴリズムは、ラベル付きデータとラベルなしデータのクラス分布がほぼ同一であると仮定する。
未知のクラス分布からラベル付けされていないデータを効果的に活用できる新しい簡易手法を提案する。
BOATは様々な標準LTSSLベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-06-19T03:35:26Z) - Three Heads Are Better Than One: Complementary Experts for Long-Tailed Semi-supervised Learning [74.44500692632778]
本稿では,様々なクラス分布をモデル化するComPlementary Experts (CPE) を提案する。
CPEは、CIFAR-10-LT、CIFAR-100-LT、STL-10-LTのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-25T11:54:07Z) - Long-Tailed Classification Based on Coarse-Grained Leading Forest and Multi-Center Loss [20.10399273585125]
Long-tailed (LT) 分類は、現実世界では避けられない問題であり、困難な問題である。
不変特徴学習を用いて多粒度分類モデルを構築することを目的とした,新しい長鎖分類フレームワークを提案する。
提案手法は既存のベンチマークである ImageNet-GLT と MSCOCO-GLT の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-10-12T10:51:23Z) - Subclass-balancing Contrastive Learning for Long-tailed Recognition [38.31221755013738]
不均衡なクラス分布を持つロングテール認識は、実践的な機械学習アプリケーションで自然に現れる。
そこで我々は,各ヘッドクラスを複数のサブクラスにクラスタリングする,新しいサブクラスバランス・コントラッシブ・ラーニング・アプローチを提案する。
我々は,長期化ベンチマークデータセットの一覧からSBCLを評価し,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-06-28T05:08:43Z) - Long-Tailed Class Incremental Learning [72.4894111493918]
クラスインクリメンタルラーニング(CIL)では、モデルは古いクラスを忘れずに、逐次的に新しいクラスを学習しなければならない。
本稿では,長尾CILシナリオを2つ提案する。
その結果,CIFAR-100 と ImageNet-Subset に対するアプローチの優れた性能(平均インクリメンタル精度6.44ポイント)が示された。
論文 参考訳(メタデータ) (2022-10-01T12:41:48Z) - Balanced Contrastive Learning for Long-Tailed Visual Recognition [32.789465918318925]
現実のデータは典型的には長い尾の分布を辿り、いくつかの大半がデータの大半を占める。
本稿では,不均衡なデータに対する表現学習に着目した。
バランス付きコントラスト学習(BCL)における新たな損失を提案する。
論文 参考訳(メタデータ) (2022-07-19T03:48:59Z) - Do Deep Networks Transfer Invariances Across Classes? [123.84237389985236]
ニュアンス変換を学習するための生成的アプローチが、クラス間での不変性の伝達にどのように役立つかを示す。
この結果から,不均衡分布や細長い分布に対して分類器が不規則に一般化する理由が示唆された。
論文 参考訳(メタデータ) (2022-03-18T04:38:18Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。