論文の概要: Leave No Stone Unturned: Mine Extra Knowledge for Imbalanced Facial
Expression Recognition
- arxiv url: http://arxiv.org/abs/2310.19636v1
- Date: Mon, 30 Oct 2023 15:26:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 19:29:09.281965
- Title: Leave No Stone Unturned: Mine Extra Knowledge for Imbalanced Facial
Expression Recognition
- Title(参考訳): 顔の表情の不均衡認識のための余分な知識をマイニングする「Leave No Stone Unturned」
- Authors: Yuhang Zhang, Yaqi Li, Lixiong Qin, Xuannan Liu, Weihong Deng
- Abstract要約: 顔の表情データは大きな不均衡を特徴とし、ほとんどの収集されたデータは幸福あるいは中立な表現を示し、恐怖や嫌悪の事例は少ない。
この不均衡は、表情認識(FER)モデルに課題をもたらし、様々な人間の感情状態を完全に理解する能力を妨げる。
既存のFER法は通常、高度に不均衡なテストセットに対して全体的な精度を報告するが、全ての式クラスの平均精度では低い性能を示す。
- 参考スコア(独自算出の注目度): 39.08466869516571
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial expression data is characterized by a significant imbalance, with most
collected data showing happy or neutral expressions and fewer instances of fear
or disgust. This imbalance poses challenges to facial expression recognition
(FER) models, hindering their ability to fully understand various human
emotional states. Existing FER methods typically report overall accuracy on
highly imbalanced test sets but exhibit low performance in terms of the mean
accuracy across all expression classes. In this paper, our aim is to address
the imbalanced FER problem. Existing methods primarily focus on learning
knowledge of minor classes solely from minor-class samples. However, we propose
a novel approach to extract extra knowledge related to the minor classes from
both major and minor class samples. Our motivation stems from the belief that
FER resembles a distribution learning task, wherein a sample may contain
information about multiple classes. For instance, a sample from the major class
surprise might also contain useful features of the minor class fear. Inspired
by that, we propose a novel method that leverages re-balanced attention maps to
regularize the model, enabling it to extract transformation invariant
information about the minor classes from all training samples. Additionally, we
introduce re-balanced smooth labels to regulate the cross-entropy loss, guiding
the model to pay more attention to the minor classes by utilizing the extra
information regarding the label distribution of the imbalanced training data.
Extensive experiments on different datasets and backbones show that the two
proposed modules work together to regularize the model and achieve
state-of-the-art performance under the imbalanced FER task. Code is available
at https://github.com/zyh-uaiaaaa.
- Abstract(参考訳): 顔の表情データは大きな不均衡を特徴とし、ほとんどの収集されたデータは幸福あるいは中立な表現を示し、恐怖や嫌悪の事例は少ない。
この不均衡は、表情認識(FER)モデルに課題をもたらし、様々な人間の感情状態を完全に理解する能力を妨げる。
既存のFER法は通常、高度に不均衡なテストセットに対して全体的な精度を報告するが、全ての式クラスの平均精度は低い。
本稿では,不均衡なFER問題に対処することを目的とする。
既存の手法は主に、マイナークラスのサンプルのみからマイナークラスの知識を学ぶことに焦点を当てている。
しかし,本研究では,マイノリティークラスとマイノリティークラスの両方のサンプルから,マイノリティークラスに関連する余分な知識を抽出する手法を提案する。
我々のモチベーションは、FERが分布学習タスクに似ているという信念から来ており、サンプルには複数のクラスに関する情報が含まれている可能性がある。
例えば、メジャークラスのサプライズからのサンプルには、マイナークラスの恐れの便利な機能も含まれているかもしれない。
そこで本研究では,モデルの正規化に再均衡したアテンションマップを活用する手法を提案し,すべてのトレーニングサンプルからマイナークラスに関する変換不変情報を抽出する。
また,不均衡なトレーニングデータのラベル分布に関する余分な情報を利用して,モデルがよりマイナーなクラスに注意を払うように誘導し,クロスエントロピー損失を規制するために,再バランススムースラベルを導入する。
異なるデータセットとバックボーンの広範な実験により、2つの提案されたモジュールが協力してモデルを正規化し、不均衡なFERタスクの下で最先端のパフォーマンスを達成することが示されている。
コードはhttps://github.com/zyh-uaiaaaaで入手できる。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - When Noisy Labels Meet Long Tail Dilemmas: A Representation Calibration
Method [40.25499257944916]
実世界のデータセットは騒々しくラベル付けされ、クラス不均衡である。
本稿では,表現キャリブレーション手法RCALを提案する。
我々は,表現キャリブレーションの有効性を論じるために理論的結果を得る。
論文 参考訳(メタデータ) (2022-11-20T11:36:48Z) - Constructing Balance from Imbalance for Long-tailed Image Recognition [50.6210415377178]
多数派(頭)クラスと少数派(尾)クラスの不均衡は、データ駆動のディープニューラルネットワークを著しく歪ませる。
従来の手法では、データ分散、特徴空間、モデル設計の観点からデータ不均衡に対処していた。
ラベル空間を段階的に調整し,ヘッドクラスとテールクラスを分割することで,簡潔なパラダイムを提案する。
提案モデルでは,特徴評価手法も提供し,長期的特徴学習の道を開く。
論文 参考訳(メタデータ) (2022-08-04T10:22:24Z) - Transfer and Share: Semi-Supervised Learning from Long-Tailed Data [27.88381366842497]
本稿では、TRAS(TRAnsfer and Share)を用いて、長い尾を持つ半教師付きデータを効果的に活用する。
TRASは従来のSSLモデルの不均衡な擬似ラベル分布を変換する。
その後、マイノリティクラスが大きな注目を集めるように、分布をターゲットモデルに転送する。
論文 参考訳(メタデータ) (2022-05-26T13:37:59Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Class-Wise Difficulty-Balanced Loss for Solving Class-Imbalance [6.875312133832079]
そこで本研究では,クラスワイド・バランサード・ロスと呼ばれる新しい損失関数を提案する。
サンプルが属するクラスの難易度に応じて、各サンプルに動的に重みを分配する。
その結果、CDB損失はクラス不均衡データセットにおける最近提案された損失関数よりも一貫して優れていた。
論文 参考訳(メタデータ) (2020-10-05T07:19:19Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。