論文の概要: Mutual Exclusive Modulator for Long-Tailed Recognition
- arxiv url: http://arxiv.org/abs/2302.09498v1
- Date: Sun, 19 Feb 2023 07:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 18:09:27.209289
- Title: Mutual Exclusive Modulator for Long-Tailed Recognition
- Title(参考訳): ロングテール認識のための相互排他変調器
- Authors: Haixu Long, Xiaolin Zhang, Zongtai Luo, Jianbo Liu
- Abstract要約: ロングテール認識は、カテゴリー間で極めて不均衡なトレーニングサンプルを与えられた高性能分類器を学習するタスクである。
各グループに属する画像の確率を推定できる相互排他変調器を導入する。
提案手法は,最先端のベンチマークと比較すると,競争性能が向上する。
- 参考スコア(独自算出の注目度): 10.438236256976921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The long-tailed recognition (LTR) is the task of learning high-performance
classifiers given extremely imbalanced training samples between categories.
Most of the existing works address the problem by either enhancing the features
of tail classes or re-balancing the classifiers to reduce the inductive bias.
In this paper, we try to look into the root cause of the LTR task, i.e.,
training samples for each class are greatly imbalanced, and propose a
straightforward solution. We split the categories into three groups, i.e.,
many, medium and few, according to the number of training images. The three
groups of categories are separately predicted to reduce the difficulty for
classification. This idea naturally arises a new problem of how to assign a
given sample to the right class groups? We introduce a mutual exclusive
modulator which can estimate the probability of an image belonging to each
group. Particularly, the modulator consists of a light-weight module and
learned with a mutual exclusive objective. Hence, the output probabilities of
the modulator encode the data volume clues of the training dataset. They are
further utilized as prior information to guide the prediction of the
classifier. We conduct extensive experiments on multiple datasets, e.g.,
ImageNet-LT, Place-LT and iNaturalist 2018 to evaluate the proposed approach.
Our method achieves competitive performance compared to the state-of-the-art
benchmarks.
- Abstract(参考訳): LTR(Long-tailed Recognition)は、カテゴリー間で非常に不均衡なトレーニングサンプルを与えられた高性能な分類器を学習するタスクである。
既存の作品の多くは、テールクラスの特徴を強化するか、帰納的バイアスを減らすために分類器を再バランスさせることでこの問題に対処している。
本稿では,LTRタスクの根本原因,すなわち,各クラスに対するトレーニングサンプルのバランスが著しく不均衡であることについて検討し,簡単な解法を提案する。
トレーニング画像の数に応じて,カテゴリを3つのグループ(多く,中,少数)に分割した。
カテゴリーの3つのグループは別々に予測され、分類の難しさを減らす。
このアイデアは自然に、与えられたサンプルを適切なクラスグループに割り当てる方法という新しい問題を引き起こします。
本稿では,各グループに属する画像の確率を推定できる相互排他変調器を提案する。
特に、変調器は軽量モジュールで構成され、相互排他目的で学習される。
したがって、変調器の出力確率は、トレーニングデータセットのデータボリュームヒントを符号化する。
さらに事前情報として利用して分類器の予測を導く。
提案手法を評価するために、ImageNet-LT、Place-LT、iNaturalist 2018などの複数のデータセットに関する広範な実験を行っている。
提案手法は,最先端のベンチマークと比較して競争性能が向上する。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - You Only Need End-to-End Training for Long-Tailed Recognition [8.789819609485225]
クロスエントロピー損失は、不均衡なデータに非常に相関した特徴をもたらす傾向にある。
ブロックベース相対平衡バッチサンプリング(B3RS)とバッチ埋め込みトレーニング(BET)の2つの新しいモジュールを提案する。
CIFAR-LT と ImageNet-LT の長期分類ベンチマークによる実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-12-11T11:44:09Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - SetConv: A New Approach for Learning from Imbalanced Data [29.366843553056594]
集合畳み込み操作とエピソード学習戦略を提案し,各クラスに1つの代表を抽出する。
提案アルゴリズムは入力順序に関わらず置換不変であることを示す。
論文 参考訳(メタデータ) (2021-04-03T22:33:30Z) - Adaptive Class Suppression Loss for Long-Tail Object Detection [49.7273558444966]
アダプティブクラス抑圧損失(ACSL:Adaptive Class Suppression Loss)を考案し,尾部カテゴリの検出性能を改善する。
当社のACSLはResNet50-FPNで5.18%と5.2%の改善を実現し,新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2021-04-02T05:12:31Z) - Class-Wise Difficulty-Balanced Loss for Solving Class-Imbalance [6.875312133832079]
そこで本研究では,クラスワイド・バランサード・ロスと呼ばれる新しい損失関数を提案する。
サンプルが属するクラスの難易度に応じて、各サンプルに動的に重みを分配する。
その結果、CDB損失はクラス不均衡データセットにおける最近提案された損失関数よりも一貫して優れていた。
論文 参考訳(メタデータ) (2020-10-05T07:19:19Z) - The Devil is the Classifier: Investigating Long Tail Relation
Classification with Decoupling Analysis [36.298869931803836]
ロングテール関係分類は、ヘッドクラスがトレーニングフェーズを支配しているため、難しい問題である。
そこで本研究では,関係を自動的に集約することで,ソフトウェイトを割り当てる,注意関係ルーティング付きロバストな分類器を提案する。
論文 参考訳(メタデータ) (2020-09-15T12:47:00Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z) - VaB-AL: Incorporating Class Imbalance and Difficulty with Variational
Bayes for Active Learning [38.33920705605981]
本研究では,クラス不均衡をアクティブラーニングフレームワークに自然に組み込む手法を提案する。
提案手法は,複数の異なるデータセットのタスク分類に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-25T07:34:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。