論文の概要: Understanding and Mitigating Annotation Bias in Facial Expression
Recognition
- arxiv url: http://arxiv.org/abs/2108.08504v1
- Date: Thu, 19 Aug 2021 05:28:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-20 14:46:35.469205
- Title: Understanding and Mitigating Annotation Bias in Facial Expression
Recognition
- Title(参考訳): 表情認識におけるアノテーションバイアスの理解と緩和
- Authors: Yunliang Chen, Jungseock Joo
- Abstract要約: 現存する多くの著作は、人為的なアノテーションは金本位制であり、偏見のないものと見なすことができると仮定している。
顔の表情認識に焦点をあて、実験室で制御されたデータセットと現場のデータセットのラベルバイアスを比較する。
本稿では,顔動作単位(AU)を活用し,三重項損失を対象関数に組み込むAU校正顔表情認識フレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.325054486984015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of a computer vision model depends on the size and quality of
its training data. Recent studies have unveiled previously-unknown composition
biases in common image datasets which then lead to skewed model outputs, and
have proposed methods to mitigate these biases. However, most existing works
assume that human-generated annotations can be considered gold-standard and
unbiased. In this paper, we reveal that this assumption can be problematic, and
that special care should be taken to prevent models from learning such
annotation biases. We focus on facial expression recognition and compare the
label biases between lab-controlled and in-the-wild datasets. We demonstrate
that many expression datasets contain significant annotation biases between
genders, especially when it comes to the happy and angry expressions, and that
traditional methods cannot fully mitigate such biases in trained models. To
remove expression annotation bias, we propose an AU-Calibrated Facial
Expression Recognition (AUC-FER) framework that utilizes facial action units
(AUs) and incorporates the triplet loss into the objective function.
Experimental results suggest that the proposed method is more effective in
removing expression annotation bias than existing techniques.
- Abstract(参考訳): コンピュータビジョンモデルの性能は、トレーニングデータのサイズと品質に依存する。
近年の研究では、一般的な画像データセットに既知の組成バイアスが明らかにされており、歪んだモデル出力につながり、これらのバイアスを軽減する方法が提案されている。
しかし、現存するほとんどの著作は、人為的なアノテーションは金本位制であり、偏見がないと仮定している。
本稿では,この仮定が問題となりうること,モデルがアノテーションバイアスを学習することを防ぐために注意が必要であることを明らかにする。
表情認識に着目し,ラボ制御データセットとインザワイルドデータセットのラベルバイアスを比較した。
多くの表現データセットは、特に幸福な表現と怒りの表現に関して、性別間の重要なアノテーションバイアスを含んでいることを示し、伝統的な手法では、トレーニングされたモデルでこのようなバイアスを完全に軽減することはできないことを実証する。
表情のアノテーションバイアスを除去するために,顔動作単位(AU)を利用したAU-Calibrated Facial Expression Recognition (AUC-FER) フレームワークを提案し,その三重項損失を目的関数に組み込む。
実験の結果,提案手法は既存の手法よりも表現アノテーションバイアスの除去に有効であることが示唆された。
関連論文リスト
- Looking at Model Debiasing through the Lens of Anomaly Detection [11.113718994341733]
ディープニューラルネットワークはデータのバイアスに敏感である。
本稿では,異常検出に基づく新しいバイアス同定手法を提案する。
合成および実際のベンチマークデータセット上で、最先端のパフォーマンスに到達する。
論文 参考訳(メタデータ) (2024-07-24T17:30:21Z) - Less can be more: representational vs. stereotypical gender bias in facial expression recognition [3.9698529891342207]
機械学習モデルは、トレーニングデータからバイアスを継承し、差別的または不正確な予測につながる。
本稿では、データセットから機械学習モデルへの人口統計バイアスの伝播について検討する。
ジェンダーの人口構成に焦点をあて、表現とステレオタイプという2種類の偏見を分析した。
論文 参考訳(メタデータ) (2024-06-25T09:26:49Z) - Using Positive Matching Contrastive Loss with Facial Action Units to
mitigate bias in Facial Expression Recognition [6.015556590955814]
本稿では、モデルがドメイン知識を用いてタスク関連機能に焦点をあてることによりバイアスを軽減することを提案する。
本手法を用いてタスク関連機能を組み込むことで,最小コストでモデルフェアネスを向上させることができることを示す。
論文 参考訳(メタデータ) (2023-03-08T21:28:02Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Unsupervised Learning of Unbiased Visual Representations [10.871587311621974]
ディープニューラルネットワークは、データセットにバイアスが存在するときに堅牢な表現を学習できないことで知られている。
我々は3つのステップからなる完全に教師なしの脱バイアスフレームワークを提案する。
我々は、非バイアスモデルを得るために最先端の教師付き脱バイアス技術を採用している。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - Mitigating Bias in Facial Analysis Systems by Incorporating Label
Diversity [4.089080285684415]
本研究では,顔の特徴の数学的定義に基づいて,主観的人間に基づくラベルと客観的アノテーションを組み合わせた新しい学習手法を提案する。
提案手法は,下流タスクの精度を高く保ちながら,意図しないバイアスを軽減できる。
論文 参考訳(メタデータ) (2022-04-13T13:17:27Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。