論文の概要: Invariant Feature Learning for Generalized Long-Tailed Classification
- arxiv url: http://arxiv.org/abs/2207.09504v3
- Date: Sun, 12 Oct 2025 14:47:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.452157
- Title: Invariant Feature Learning for Generalized Long-Tailed Classification
- Title(参考訳): 一般化ロングプレート分類のための不変特徴学習
- Authors: Kaihua Tang, Mingyuan Tao, Jiaxin Qi, Zhenguang Liu, Hanwang Zhang,
- Abstract要約: 我々は,両種類の不均衡を共同で検討するために,一般化長大分類(GLT)を導入する。
提案した2つのベンチマーク(ImageNet-GLTとMSCOCO-GLT)では,ほとんどのクラスワイドLTメソッドが退化している。
GLTの最初の強力なベースラインとして不変特徴学習(IFL)法を提案する。
- 参考スコア(独自算出の注目度): 63.97988111638796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing long-tailed classification (LT) methods only focus on tackling the class-wise imbalance that head classes have more samples than tail classes, but overlook the attribute-wise imbalance. In fact, even if the class is balanced, samples within each class may still be long-tailed due to the varying attributes. Note that the latter is fundamentally more ubiquitous and challenging than the former because attributes are not just implicit for most datasets, but also combinatorially complex, thus prohibitively expensive to be balanced. Therefore, we introduce a novel research problem: Generalized Long-Tailed classification (GLT), to jointly consider both kinds of imbalances. By "generalized", we mean that a GLT method should naturally solve the traditional LT, but not vice versa. Not surprisingly, we find that most class-wise LT methods degenerate in our proposed two benchmarks: ImageNet-GLT and MSCOCO-GLT. We argue that it is because they over-emphasize the adjustment of class distribution while neglecting to learn attribute-invariant features. To this end, we propose an Invariant Feature Learning (IFL) method as the first strong baseline for GLT. IFL first discovers environments with divergent intra-class distributions from the imperfect predictions and then learns invariant features across them. Promisingly, as an improved feature backbone, IFL boosts all the LT line-up: one/two-stage re-balance, augmentation, and ensemble. Codes and benchmarks are available on Github: https://github.com/KaihuaTang/Generalized-Long-Tailed-Benchmarks.pytorch
- Abstract(参考訳): 既存のLong-tailed Classification (LT) 手法は、頭級が尾級よりも多くのサンプルを持つクラスワイド不均衡に取り組むことだけに焦点が当てられているが、属性ワイド不均衡は見落としている。
実際、もしそのクラスがバランスが取れたとしても、各クラス内のサンプルは、様々な属性のために長い尾を持つことがある。
属性は多くのデータセットに対して暗黙的であるだけでなく、組合せ的に複雑であるため、バランスをとるのが禁止されるため、後者は基本的に前者よりもユビキタスで難しい。
そこで我々は,両タイプの不均衡を共同で検討するために,GLT(Generalized Long-Tailed Classification)という新たな研究課題を導入する。
一般化」により、GLT法は従来のLTを自然に解くべきであるが、逆ではないことを意味する。
意外なことに、提案した2つのベンチマーク(ImageNet-GLTとMSCOCO-GLT)では、ほとんどのクラスワイドLTメソッドが退化している。
属性不変な特徴を学習することを無視しながら、クラス分布の調整を過度に強調するためである、と我々は主張する。
そこで本研究では,GLTの最初の強力なベースラインとして,不変特徴学習(IFL)手法を提案する。
IFLはまず、不完全な予測からクラス内分布を逸脱した環境を発見し、その後、不均一な特徴を学習する。
改善された機能バックボーンとして、IFLはLTのラインナップを1段階/2段階のリバランス、強化、アンサンブルで強化する。
https://github.com/KaihuaTang/Generalized-Long-Tailed-Benchmarks.pytorch
関連論文リスト
- Boosting Consistency in Dual Training for Long-Tailed Semi-Supervised Learning [49.07038093130949]
Long-tailed semi-supervised learning (LTSSL)アルゴリズムは、ラベル付きデータとラベルなしデータのクラス分布がほぼ同一であると仮定する。
未知のクラス分布からラベル付けされていないデータを効果的に活用できる新しい簡易手法を提案する。
BOATは様々な標準LTSSLベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-06-19T03:35:26Z) - Three Heads Are Better Than One: Complementary Experts for Long-Tailed Semi-supervised Learning [74.44500692632778]
本稿では,様々なクラス分布をモデル化するComPlementary Experts (CPE) を提案する。
CPEは、CIFAR-10-LT、CIFAR-100-LT、STL-10-LTのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-25T11:54:07Z) - Long-Tailed Classification Based on Coarse-Grained Leading Forest and Multi-Center Loss [20.10399273585125]
Long-tailed (LT) 分類は、現実世界では避けられない問題であり、困難な問題である。
不変特徴学習を用いて多粒度分類モデルを構築することを目的とした,新しい長鎖分類フレームワークを提案する。
提案手法は既存のベンチマークである ImageNet-GLT と MSCOCO-GLT の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-10-12T10:51:23Z) - Subclass-balancing Contrastive Learning for Long-tailed Recognition [38.31221755013738]
不均衡なクラス分布を持つロングテール認識は、実践的な機械学習アプリケーションで自然に現れる。
そこで我々は,各ヘッドクラスを複数のサブクラスにクラスタリングする,新しいサブクラスバランス・コントラッシブ・ラーニング・アプローチを提案する。
我々は,長期化ベンチマークデータセットの一覧からSBCLを評価し,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-06-28T05:08:43Z) - Long-Tailed Class Incremental Learning [72.4894111493918]
クラスインクリメンタルラーニング(CIL)では、モデルは古いクラスを忘れずに、逐次的に新しいクラスを学習しなければならない。
本稿では,長尾CILシナリオを2つ提案する。
その結果,CIFAR-100 と ImageNet-Subset に対するアプローチの優れた性能(平均インクリメンタル精度6.44ポイント)が示された。
論文 参考訳(メタデータ) (2022-10-01T12:41:48Z) - Balanced Contrastive Learning for Long-Tailed Visual Recognition [32.789465918318925]
現実のデータは典型的には長い尾の分布を辿り、いくつかの大半がデータの大半を占める。
本稿では,不均衡なデータに対する表現学習に着目した。
バランス付きコントラスト学習(BCL)における新たな損失を提案する。
論文 参考訳(メタデータ) (2022-07-19T03:48:59Z) - Do Deep Networks Transfer Invariances Across Classes? [123.84237389985236]
ニュアンス変換を学習するための生成的アプローチが、クラス間での不変性の伝達にどのように役立つかを示す。
この結果から,不均衡分布や細長い分布に対して分類器が不規則に一般化する理由が示唆された。
論文 参考訳(メタデータ) (2022-03-18T04:38:18Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。