論文の概要: Long-Tailed Classification Based on Coarse-Grained Leading Forest and
Multi-Center Loss
- arxiv url: http://arxiv.org/abs/2310.08206v2
- Date: Tue, 19 Dec 2023 07:21:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 22:36:38.527843
- Title: Long-Tailed Classification Based on Coarse-Grained Leading Forest and
Multi-Center Loss
- Title(参考訳): 粗粒林と多中心損失に基づく長山分類
- Authors: Jinye Yang, Ji Xu, Di Wu, Jianhang Tang, Shaobo Li, Guoyin Wang
- Abstract要約: Long-tailed (LT) 分類は、現実世界では避けられない問題であり、困難な問題である。
不変特徴学習を用いて多粒度分類モデルを構築することを目的とした,新しい長鎖分類フレームワークを提案する。
提案手法は既存のベンチマークである ImageNet-GLT と MSCOCO-GLT の両方で最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 21.302508774614154
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long-tailed (LT) classification is an unavoidable and challenging problem in
the real world. Most existing long-tailed classification methods focus only on
solving the class-wise imbalance while ignoring the attribute-wise imbalance.
The deviation of a classification model is caused by both class-wise and
attribute-wise imbalance. Due to the fact that attributes are implicit in most
datasets and the combination of attributes is complex, attribute-wise imbalance
is more difficult to handle. For this purpose, we proposed a novel long-tailed
classification framework, aiming to build a multi-granularity classification
model by means of invariant feature learning. This method first unsupervisedly
constructs Coarse-Grained forest (CLF) to better characterize the distribution
of attributes within a class. Depending on the distribution of attributes, one
can customize suitable sampling strategies to construct different imbalanced
datasets. We then introduce multi-center loss (MCL) that aims to gradually
eliminate confusing attributes during feature learning process. The proposed
framework does not necessarily couple to a specific LT classification model
structure and can be integrated with any existing LT method as an independent
component. Extensive experiments show that our approach achieves
state-of-the-art performance on both existing benchmarks ImageNet-GLT and
MSCOCO-GLT and can improve the performance of existing LT methods. Our codes
are available on GitHub: \url{https://github.com/jinyery/cognisance}
- Abstract(参考訳): ロングテール(lt)分類は現実の世界では避けられない挑戦的な問題である。
既存のロングテール分類法は、属性的不均衡を無視しながらクラス的不均衡を解決することだけに焦点を当てている。
分類モデルの偏差は、クラスと属性の両方の不均衡によって引き起こされる。
ほとんどのデータセットでは属性が暗黙的であり、属性の組み合わせは複雑であるので、属性に関する不均衡は扱いにくい。
そこで本研究では,不変特徴学習による多面的粒度分類モデルの構築を目的とした,新しいロングテール分類フレームワークを提案する。
この方法は、クラス内の属性の分布をよりよく特徴付けるために、最初に教師なしで粗粒林(clf)を構築する。
属性の分布に応じて、異なる不均衡データセットを構築するのに適切なサンプリング戦略をカスタマイズできる。
次に,特徴学習過程における混乱特性を徐々に排除することを目的としたマルチセンター・ロス(MCL)を導入する。
提案するフレームワークは,特定のLT分類モデル構造に必ずしも対応せず,既存のLTメソッドを独立したコンポーネントとして統合することができる。
大規模な実験により,既存のベンチマークである ImageNet-GLT と MSCOCO-GLT の両方で最先端の性能を実現し,既存の LT 手法の性能を向上させることができた。
私たちのコードはgithubで入手できる: \url{https://github.com/jinyery/cognisance}
関連論文リスト
- Long-Tailed Anomaly Detection with Learnable Class Names [64.79139468331807]
性能評価のためのクラス不均衡とメトリクスのレベルが異なるデータセットをいくつか導入する。
次に、データセットのクラス名に頼ることなく、複数の長い尾を持つクラスから欠陥を検出する新しい手法LTADを提案する。
LTADは、ほとんどの形式のデータセットの不均衡に対して最先端の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2024-03-29T15:26:44Z) - Subclass-balancing Contrastive Learning for Long-tailed Recognition [38.31221755013738]
不均衡なクラス分布を持つロングテール認識は、実践的な機械学習アプリケーションで自然に現れる。
そこで我々は,各ヘッドクラスを複数のサブクラスにクラスタリングする,新しいサブクラスバランス・コントラッシブ・ラーニング・アプローチを提案する。
我々は,長期化ベンチマークデータセットの一覧からSBCLを評価し,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-06-28T05:08:43Z) - LMPT: Prompt Tuning with Class-Specific Embedding Loss for Long-tailed Multi-Label Visual Recognition [12.62835357920401]
本稿では,クラス固有の埋め込み損失(LMPT)を即時チューニングするLTMLの統一フレームワークを提案する。
LTMLにおける従来の最先端手法とゼロショットCLIPを大きく上回っている。
論文 参考訳(メタデータ) (2023-05-08T08:14:46Z) - Learning in Imperfect Environment: Multi-Label Classification with
Long-Tailed Distribution and Partial Labels [53.68653940062605]
新しいタスク, 部分ラベリングとLong-Tailed Multi-Label Classification (PLT-MLC) を導入する。
その結果,ほとんどのLT-MLCとPL-MLCは劣化MLCの解決に失敗していることがわかった。
textbfCOrrection $rightarrow$ textbfModificattextbfIon $rightarrow$ balantextbfCe。
論文 参考訳(メタデータ) (2023-04-20T20:05:08Z) - Meta-Causal Feature Learning for Out-of-Distribution Generalization [71.38239243414091]
本稿では,協調タスク生成モジュール (BTG) とメタ因果特徴学習モジュール (MCFL) を含む,バランス付きメタ因果学習器 (BMCL) を提案する。
BMCLは、分類のためのクラス不変の視覚領域を効果的に識別し、最先端の手法の性能を向上させるための一般的なフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-08-22T09:07:02Z) - Invariant Feature Learning for Generalized Long-Tailed Classification [63.0533733524078]
我々は,両種類の不均衡を共同で検討するために,一般化長大分類(GLT)を導入する。
提案した2つのベンチマーク(ImageNet-GLTとMSCOCO-GLT)では,ほとんどのクラスワイドLTメソッドが退化している。
GLTの最初の強力なベースラインとして不変特徴学習(IFL)法を提案する。
論文 参考訳(メタデータ) (2022-07-19T18:27:42Z) - Balanced Contrastive Learning for Long-Tailed Visual Recognition [32.789465918318925]
現実のデータは典型的には長い尾の分布を辿り、いくつかの大半がデータの大半を占める。
本稿では,不均衡なデータに対する表現学習に着目した。
バランス付きコントラスト学習(BCL)における新たな損失を提案する。
論文 参考訳(メタデータ) (2022-07-19T03:48:59Z) - Adaptive Class Suppression Loss for Long-Tail Object Detection [49.7273558444966]
アダプティブクラス抑圧損失(ACSL:Adaptive Class Suppression Loss)を考案し,尾部カテゴリの検出性能を改善する。
当社のACSLはResNet50-FPNで5.18%と5.2%の改善を実現し,新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2021-04-02T05:12:31Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。