論文の概要: Biased Binary Attribute Classifiers Ignore the Majority Classes
- arxiv url: http://arxiv.org/abs/2403.14435v1
- Date: Thu, 21 Mar 2024 14:41:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 13:59:14.674010
- Title: Biased Binary Attribute Classifiers Ignore the Majority Classes
- Title(参考訳): Biased Binary Attribute Classifiers Ignore the Majority Classs
- Authors: Xinyi Zhang, Johanna Sophie Bieri, Manuel Günther,
- Abstract要約: クラス活性化マッピング (Class Activation Mapping, CAM) は、分類器が決定を下す関心領域を視覚化するために用いられる。
本稿では,勾配に基づくCAM手法を拡張して二項分類器と併用し,二項属性分類器のアクティブ領域を可視化する。
- 参考スコア(独自算出の注目度): 7.73729856079303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To visualize the regions of interest that classifiers base their decisions on, different Class Activation Mapping (CAM) methods have been developed. However, all of these techniques target categorical classifiers only, though most real-world tasks are binary classification. In this paper, we extend gradient-based CAM techniques to work with binary classifiers and visualize the active regions for binary facial attribute classifiers. When training an unbalanced binary classifier on an imbalanced dataset, it is well-known that the majority class, i.e. the class with many training samples, is mostly predicted much better than minority class with few training instances. In our experiments on the CelebA dataset, we verify these results, when training an unbalanced classifier to extract 40 facial attributes simultaneously. One would expect that the biased classifier has learned to extract features mainly for the majority classes and that the proportional energy of the activations mainly reside in certain specific regions of the image where the attribute is located. However, we find very little regular activation for samples of majority classes, while the active regions for minority classes seem mostly reasonable and overlap with our expectations. These results suggest that biased classifiers mainly rely on bias activation for majority classes. When training a balanced classifier on the imbalanced data by employing attribute-specific class weights, majority and minority classes are classified similarly well and show expected activations for almost all attributes
- Abstract(参考訳): 分類器が決定を下す関心領域を視覚化するため,クラス活性化マッピング(CAM)法が開発されている。
しかしながら、これらの手法はすべて分類器のみを対象としているが、現実のタスクのほとんどは二項分類である。
本稿では,勾配に基づくCAM手法を拡張して二項分類器と併用し,二項属性分類器のアクティブ領域を可視化する。
アンバランスなバイナリ分類器を不均衡なデータセットでトレーニングする場合、大多数のクラス、すなわち多くのトレーニングサンプルを持つクラスは、ほとんどトレーニングインスタンスを持たないマイノリティークラスよりもはるかに良く予測されていることが知られている。
CelebAデータセットを用いた実験では、アンバランスな分類器を訓練して40の顔属性を同時に抽出する場合に、これらの結果を検証する。
偏見付き分類器は、主に多数クラスの特徴を抽出することを学び、アクティベーションの比例エネルギーは、属性が位置する画像の特定の領域に主に存在することを期待する。
しかし、多数派階級のサンプルの定期的な活性化はほとんど見られず、少数派階級のアクティブな領域は概ね合理的で、我々の期待と重なるように思われる。
これらの結果は、偏見分類器は、主に多数派クラスの偏見アクティベーションに依存していることを示唆している。
属性固有のクラスウェイトを用いて不均衡データ上でバランスの取れた分類器を訓練する場合、多数派と少数派は同様に分類され、ほぼ全ての属性に対して期待される活性化を示す。
関連論文リスト
- Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
クライアント間の局所的なラベル分布の相違を特徴とするラベルスキューは、連合学習において大きな課題となる。
本稿では, ラベルスキュード・フェデレート学習における新しい手法であるFedVLSについて紹介する。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - Generalization Bounds for Few-Shot Transfer Learning with Pretrained
Classifiers [26.844410679685424]
本研究では,新しいクラスに移動可能な分類の表現を基礎モデルで学習する能力について検討する。
クラス-機能-変数の崩壊の場合,新しいクラスで学習した特徴マップのわずかな誤差が小さいことを示す。
論文 参考訳(メタデータ) (2022-12-23T18:46:05Z) - The SAMME.C2 algorithm for severely imbalanced multi-class
classification [0.0]
マイノリティクラスは、観測に適した科学学習アルゴリズムが無数の課題を提示しているにもかかわらず、より興味深いクラスと見なされることが多い。
我々は,SAMME.C2と呼ぶ手法に基づいて,高度に不均衡なクラスを扱うための,新しい多クラス分類アルゴリズムを提案する。
得られたアルゴリズムを提供するだけでなく,提案したSAMME.C2アルゴリズムの科学的および統計的定式化も行う。
論文 参考訳(メタデータ) (2021-12-30T00:20:01Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Predicting Classification Accuracy When Adding New Unobserved Classes [8.325327265120283]
そこで本研究では,より大規模で未観測のクラスに対して,期待する精度を推定するために,分類器の性能をどのように利用することができるかを検討する。
ニューラルネットワークに基づく頑健なアルゴリズム "CleaneX" を定式化し,任意のサイズのクラスに対して,そのような分類器の精度を推定する。
論文 参考訳(メタデータ) (2020-10-28T14:37:25Z) - Few-Shot Learning with Intra-Class Knowledge Transfer [100.87659529592223]
アンバランスなデータセットを用いた数発の分類タスクについて検討する。
近年の研究では、生成モデルを用いて数発の授業のトレーニングデータを増やすことで、この課題を解決することが提案されている。
本稿では,近隣クラスが類似した統計情報を共有するという直感で,近隣クラスからのクラス内知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-08-22T18:15:38Z) - Feature Space Augmentation for Long-Tailed Data [74.65615132238291]
実世界のデータは、各クラスの周波数が典型的に異なるため、長い尾の分布に従うことが多い。
データ再サンプリングと拡張に関するクラスバランス損失と高度な手法は、データの不均衡問題を解決するためのベストプラクティスのひとつです。
提案手法は,多種多様なサンプルを持つクラスから学習した特徴量を用いて,特徴空間における表現不足のクラスを増大させることによって,長鎖問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-09T06:38:00Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。