論文の概要: Long-Tailed Classification Based on Coarse-Grained Leading Forest and
Multi-Center Loss
- arxiv url: http://arxiv.org/abs/2310.08206v1
- Date: Thu, 12 Oct 2023 10:51:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 11:50:09.564770
- Title: Long-Tailed Classification Based on Coarse-Grained Leading Forest and
Multi-Center Loss
- Title(参考訳): 粗粒林と多中心損失に基づく長山分類
- Authors: Jinye Yang, Ji Xu
- Abstract要約: Long-tailed(LT)分類は、現実世界では避けられない問題であり、困難な問題である。
我々は、粗粒林(CLF)とマルチセンターロス(MCL)を基盤とした長い尾の分類フレームワーク、textbftextscCognisanceを提案する。
提案手法は,既存のベンチマークであるImageNet-GLTとMSCOCO-GLTの両方において最先端の性能を有しており,既存のLT法の性能を向上させることができる。
- 参考スコア(独自算出の注目度): 11.014966032516554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long-tailed(LT) classification is an unavoidable and challenging problem in
the real world. Most of the existing long-tailed classification methods focus
only on solving the inter-class imbalance in which there are more samples in
the head class than in the tail class, while ignoring the intra-lass imbalance
in which the number of samples of the head attribute within the same class is
much larger than the number of samples of the tail attribute. The deviation in
the model is caused by both of these factors, and due to the fact that
attributes are implicit in most datasets and the combination of attributes is
very complex, the intra-class imbalance is more difficult to handle. For this
purpose, we proposed a long-tailed classification framework, known as
\textbf{\textsc{Cognisance}}, which is founded on Coarse-Grained Leading Forest
(CLF) and Multi-Center Loss (MCL), aiming to build a multi-granularity joint
solution model by means of invariant feature learning. In this method, we
designed an unsupervised learning method, i.e., CLF, to better characterize the
distribution of attributes within a class. Depending on the distribution of
attributes, we can flexibly construct sampling strategies suitable for
different environments. In addition, we introduce a new metric learning loss
(MCL), which aims to gradually eliminate confusing attributes during the
feature learning process. More importantly, this approach does not depend on a
specific model structure and can be integrated with existing LT methods as an
independent component. We have conducted extensive experiments and our approach
has state-of-the-art performance in both existing benchmarks ImageNet-GLT and
MSCOCO-GLT, and can improve the performance of existing LT methods. Our codes
are available on GitHub: \url{https://github.com/jinyery/cognisance}
- Abstract(参考訳): Long-tailed(LT)分類は、現実世界では避けられない、困難な問題である。
既存の長い尾の分類法のほとんどは、尾のクラスよりも先頭のクラスにより多くのサンプルが存在するクラス間不均衡を解決することのみに焦点を当て、一方、同じクラス内の先頭属性のサンプル数が尾の属性のサンプル数よりもはるかに大きいクラス内不均衡を無視している。
モデルの偏差はこれら2つの要因によって引き起こされ、属性がほとんどのデータセットで暗黙的であり、属性の組み合わせが非常に複雑であるため、クラス内の不均衡は処理が難しい。
そこで本稿では,多変量特徴学習による多粒性共同解モデルの構築を目的とした,CORF(Coarse-Grained Leading Forest)とMCL(Multi-Center Loss)を基盤とした長鎖分類フレームワークである‘textbf{\textsc{Cognisance}}を提案する。
本研究では,クラス内の属性の分布をより正確に特徴付けるために,教師なし学習手法であるCLFを設計した。
属性の分布によって異なる環境に適したサンプリング戦略を柔軟に構築することができる。
さらに,特徴学習過程において,不明瞭な属性を徐々に排除することを目的とした,新しい計量学習損失(MCL)を導入する。
さらに重要なのは、このアプローチは特定のモデル構造に依存しておらず、独立したコンポーネントとして既存のLTメソッドと統合することができます。
我々は大規模な実験を行い,既存のベンチマークである ImageNet-GLT と MSCOCO-GLT の両方で最先端の性能を示し,既存の LT 手法の性能を向上させることができる。
私たちのコードはgithubで入手できる: \url{https://github.com/jinyery/cognisance}
関連論文リスト
- Long-Tailed Anomaly Detection with Learnable Class Names [64.79139468331807]
性能評価のためのクラス不均衡とメトリクスのレベルが異なるデータセットをいくつか導入する。
次に、データセットのクラス名に頼ることなく、複数の長い尾を持つクラスから欠陥を検出する新しい手法LTADを提案する。
LTADは、ほとんどの形式のデータセットの不均衡に対して最先端の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2024-03-29T15:26:44Z) - Subclass-balancing Contrastive Learning for Long-tailed Recognition [38.31221755013738]
不均衡なクラス分布を持つロングテール認識は、実践的な機械学習アプリケーションで自然に現れる。
そこで我々は,各ヘッドクラスを複数のサブクラスにクラスタリングする,新しいサブクラスバランス・コントラッシブ・ラーニング・アプローチを提案する。
我々は,長期化ベンチマークデータセットの一覧からSBCLを評価し,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-06-28T05:08:43Z) - LMPT: Prompt Tuning with Class-Specific Embedding Loss for Long-tailed Multi-Label Visual Recognition [12.62835357920401]
本稿では,クラス固有の埋め込み損失(LMPT)を即時チューニングするLTMLの統一フレームワークを提案する。
LTMLにおける従来の最先端手法とゼロショットCLIPを大きく上回っている。
論文 参考訳(メタデータ) (2023-05-08T08:14:46Z) - Learning in Imperfect Environment: Multi-Label Classification with
Long-Tailed Distribution and Partial Labels [53.68653940062605]
新しいタスク, 部分ラベリングとLong-Tailed Multi-Label Classification (PLT-MLC) を導入する。
その結果,ほとんどのLT-MLCとPL-MLCは劣化MLCの解決に失敗していることがわかった。
textbfCOrrection $rightarrow$ textbfModificattextbfIon $rightarrow$ balantextbfCe。
論文 参考訳(メタデータ) (2023-04-20T20:05:08Z) - Meta-Causal Feature Learning for Out-of-Distribution Generalization [71.38239243414091]
本稿では,協調タスク生成モジュール (BTG) とメタ因果特徴学習モジュール (MCFL) を含む,バランス付きメタ因果学習器 (BMCL) を提案する。
BMCLは、分類のためのクラス不変の視覚領域を効果的に識別し、最先端の手法の性能を向上させるための一般的なフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-08-22T09:07:02Z) - Invariant Feature Learning for Generalized Long-Tailed Classification [63.0533733524078]
我々は,両種類の不均衡を共同で検討するために,一般化長大分類(GLT)を導入する。
提案した2つのベンチマーク(ImageNet-GLTとMSCOCO-GLT)では,ほとんどのクラスワイドLTメソッドが退化している。
GLTの最初の強力なベースラインとして不変特徴学習(IFL)法を提案する。
論文 参考訳(メタデータ) (2022-07-19T18:27:42Z) - Balanced Contrastive Learning for Long-Tailed Visual Recognition [32.789465918318925]
現実のデータは典型的には長い尾の分布を辿り、いくつかの大半がデータの大半を占める。
本稿では,不均衡なデータに対する表現学習に着目した。
バランス付きコントラスト学習(BCL)における新たな損失を提案する。
論文 参考訳(メタデータ) (2022-07-19T03:48:59Z) - Adaptive Class Suppression Loss for Long-Tail Object Detection [49.7273558444966]
アダプティブクラス抑圧損失(ACSL:Adaptive Class Suppression Loss)を考案し,尾部カテゴリの検出性能を改善する。
当社のACSLはResNet50-FPNで5.18%と5.2%の改善を実現し,新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2021-04-02T05:12:31Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。