論文の概要: Understanding and Mitigating Annotation Bias in Facial Expression
Recognition
- arxiv url: http://arxiv.org/abs/2108.08504v1
- Date: Thu, 19 Aug 2021 05:28:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-20 14:46:35.469205
- Title: Understanding and Mitigating Annotation Bias in Facial Expression
Recognition
- Title(参考訳): 表情認識におけるアノテーションバイアスの理解と緩和
- Authors: Yunliang Chen, Jungseock Joo
- Abstract要約: 現存する多くの著作は、人為的なアノテーションは金本位制であり、偏見のないものと見なすことができると仮定している。
顔の表情認識に焦点をあて、実験室で制御されたデータセットと現場のデータセットのラベルバイアスを比較する。
本稿では,顔動作単位(AU)を活用し,三重項損失を対象関数に組み込むAU校正顔表情認識フレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.325054486984015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of a computer vision model depends on the size and quality of
its training data. Recent studies have unveiled previously-unknown composition
biases in common image datasets which then lead to skewed model outputs, and
have proposed methods to mitigate these biases. However, most existing works
assume that human-generated annotations can be considered gold-standard and
unbiased. In this paper, we reveal that this assumption can be problematic, and
that special care should be taken to prevent models from learning such
annotation biases. We focus on facial expression recognition and compare the
label biases between lab-controlled and in-the-wild datasets. We demonstrate
that many expression datasets contain significant annotation biases between
genders, especially when it comes to the happy and angry expressions, and that
traditional methods cannot fully mitigate such biases in trained models. To
remove expression annotation bias, we propose an AU-Calibrated Facial
Expression Recognition (AUC-FER) framework that utilizes facial action units
(AUs) and incorporates the triplet loss into the objective function.
Experimental results suggest that the proposed method is more effective in
removing expression annotation bias than existing techniques.
- Abstract(参考訳): コンピュータビジョンモデルの性能は、トレーニングデータのサイズと品質に依存する。
近年の研究では、一般的な画像データセットに既知の組成バイアスが明らかにされており、歪んだモデル出力につながり、これらのバイアスを軽減する方法が提案されている。
しかし、現存するほとんどの著作は、人為的なアノテーションは金本位制であり、偏見がないと仮定している。
本稿では,この仮定が問題となりうること,モデルがアノテーションバイアスを学習することを防ぐために注意が必要であることを明らかにする。
表情認識に着目し,ラボ制御データセットとインザワイルドデータセットのラベルバイアスを比較した。
多くの表現データセットは、特に幸福な表現と怒りの表現に関して、性別間の重要なアノテーションバイアスを含んでいることを示し、伝統的な手法では、トレーニングされたモデルでこのようなバイアスを完全に軽減することはできないことを実証する。
表情のアノテーションバイアスを除去するために,顔動作単位(AU)を利用したAU-Calibrated Facial Expression Recognition (AUC-FER) フレームワークを提案し,その三重項損失を目的関数に組み込む。
実験の結果,提案手法は既存の手法よりも表現アノテーションバイアスの除去に有効であることが示唆された。
関連論文リスト
- Say My Name: a Model's Bias Discovery Framework [18.887645415907166]
Say My Name'(SaMyNa)は、ディープモデル内のバイアスを意味的に識別する最初のツールです。
既存の方法とは異なり、私たちのアプローチはモデルによって学習されたバイアスに焦点を当てています。
本手法は,タスク関連情報をアンタングル化し,偏見を解析するためのツールとして提案する。
論文 参考訳(メタデータ) (2024-08-18T18:50:59Z) - Dataset Scale and Societal Consistency Mediate Facial Impression Bias in Vision-Language AI [17.101569078791492]
43のCLIP視覚言語モデルを用いて、人間の顔の印象バイアスを学習するかどうかを検証した。
社会全体でバイアスが共有される度合いがCLIPモデルに反映される度合いを予測するのはこれが初めてである。
論文 参考訳(メタデータ) (2024-08-04T08:26:58Z) - Looking at Model Debiasing through the Lens of Anomaly Detection [11.113718994341733]
ディープニューラルネットワークはデータのバイアスに敏感である。
本稿では,異常検出に基づく新しいバイアス同定手法を提案する。
合成および実際のベンチマークデータセット上で、最先端のパフォーマンスに到達する。
論文 参考訳(メタデータ) (2024-07-24T17:30:21Z) - MoESD: Mixture of Experts Stable Diffusion to Mitigate Gender Bias [23.10522891268232]
テキスト・ツー・イメージ・モデルにおいて、ジェンダーバイアスを軽減するためのMixture-of-Expertsアプローチを導入する。
画像品質を維持しながら, 性別偏見の軽減に成功していることを示す。
論文 参考訳(メタデータ) (2024-06-25T14:59:31Z) - Less can be more: representational vs. stereotypical gender bias in facial expression recognition [3.9698529891342207]
機械学習モデルは、トレーニングデータからバイアスを継承し、差別的または不正確な予測につながる。
本稿では、データセットから機械学習モデルへの人口統計バイアスの伝播について検討する。
ジェンダーの人口構成に焦点をあて、表現とステレオタイプという2種類の偏見を分析した。
論文 参考訳(メタデータ) (2024-06-25T09:26:49Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。