論文の概要: Auditing Facial Emotion Recognition Datasets for Posed Expressions and Racial Bias
- arxiv url: http://arxiv.org/abs/2507.10755v1
- Date: Mon, 14 Jul 2025 19:25:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.860997
- Title: Auditing Facial Emotion Recognition Datasets for Posed Expressions and Racial Bias
- Title(参考訳): 顔表情と顔面バイアスに対する顔表情認識データセットの検討
- Authors: Rina Khan, Catherine Stinson,
- Abstract要約: 表情認識(FER)アルゴリズムは、表情を幸せ、悲しみ、怒りなどの感情に分類する。
検査されたファーモデルでは、人々は白ではないとラベル付けされたり、肌の色が濃いと判断されたりする傾向があった。
このバイアスにより、そのようなモデルは現実の応用において害を持続させる傾向がある。
- 参考スコア(独自算出の注目度): 0.047888359248129786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial expression recognition (FER) algorithms classify facial expressions into emotions such as happy, sad, or angry. An evaluative challenge facing FER algorithms is the fall in performance when detecting spontaneous expressions compared to posed expressions. An ethical (and evaluative) challenge facing FER algorithms is that they tend to perform poorly for people of some races and skin colors. These challenges are linked to the data collection practices employed in the creation of FER datasets. In this study, we audit two state-of-the-art FER datasets. We take random samples from each dataset and examine whether images are spontaneous or posed. In doing so, we propose a methodology for identifying spontaneous or posed images. We discover a significant number of images that were posed in the datasets purporting to consist of in-the-wild images. Since performance of FER models vary between spontaneous and posed images, the performance of models trained on these datasets will not represent the true performance if such models were to be deployed in in-the-wild applications. We also observe the skin color of individuals in the samples, and test three models trained on each of the datasets to predict facial expressions of people from various races and skin tones. We find that the FER models audited were more likely to predict people labeled as not white or determined to have dark skin as showing a negative emotion such as anger or sadness even when they were smiling. This bias makes such models prone to perpetuate harm in real life applications.
- Abstract(参考訳): 表情認識(FER)アルゴリズムは、表情を幸せ、悲しみ、怒りなどの感情に分類する。
FERアルゴリズムに直面する評価的課題は、提案した表現と比較して自然表現を検出する際の性能低下である。
FERアルゴリズムが直面している倫理的(かつ評価的な)課題は、一部の人種や肌の色の人々にとって、パフォーマンスが悪くなっていることだ。
これらの課題は、FERデータセットの作成に使用されるデータ収集プラクティスに関連している。
本研究では,最先端のFERデータセットを2つ評価する。
各データセットからランダムなサンプルを取得し、画像が自然かポーズかを調べる。
そこで本研究では,自然画像やポーズ画像の識別手法を提案する。
我々は,現在地画像で構成されていると推定されたデータセットから,かなりの数の画像が得られた。
FERモデルの性能は、自然画像とポーズ画像の間で異なるため、これらのデータセットでトレーニングされたモデルのパフォーマンスは、そのようなモデルが実際のアプリケーションにデプロイされる場合、真のパフォーマンスを表すものではない。
また、サンプル中の個体の皮膚の色を観察し、各データセットで訓練された3つのモデルをテストし、様々な人種や肌のトーンの人々の表情を予測する。
調査したFERモデルは、笑っていても怒りや悲しみなどの否定的な感情を示すものとして、白人でないとラベル付けされたり、肌が暗いと判断されたりすることが多かった。
このバイアスにより、そのようなモデルは現実の応用において害を持続させる傾向がある。
関連論文リスト
- Evaluating Multiview Object Consistency in Humans and Image Models [68.36073530804296]
我々は、物体の形状に関するゼロショット視覚的推論を必要とする認知科学の実験的設計を活用する。
我々は500人以上の参加者から行動データの35万件の試行を収集した。
次に、一般的な視覚モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-09T17:59:13Z) - Dataset Scale and Societal Consistency Mediate Facial Impression Bias in Vision-Language AI [17.101569078791492]
43のCLIP視覚言語モデルを用いて、人間の顔の印象バイアスを学習するかどうかを検証した。
社会全体でバイアスが共有される度合いがCLIPモデルに反映される度合いを予測するのはこれが初めてである。
論文 参考訳(メタデータ) (2024-08-04T08:26:58Z) - Neuromorphic Valence and Arousal Estimation [28.793519320598865]
我々は、顔から感情状態を予測するためにニューロモルフィックデータを使用します。
トレーニングされたモデルが依然として最先端の結果を得ることができることを実証します。
本稿では,フレームベースとビデオベースの両方において,この課題を解決するための代替モデルを提案する。
論文 参考訳(メタデータ) (2024-01-29T11:13:18Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Ambiguous Images With Human Judgments for Robust Visual Event
Classification [34.62731821199598]
我々はあいまいな画像のデータセットを作成し、それらをビデオから抽出したノイズの多い画像の集合であるSQUID-E(Squidy)を作成する。
すべての画像は、地上の真理値でアノテートされ、テストセットは、人間の不確実性判定でアノテートされる。
このデータセットを用いて、視覚タスクにおける人間の不確実性を特徴づけ、既存の視覚事象分類モデルを評価する。
論文 参考訳(メタデータ) (2022-10-06T17:52:20Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Generating near-infrared facial expression datasets with dimensional
affect labels [2.367786892039871]
我々は,NIR画像データセットを次元的感情ラベルで作成するための2つの補完的データ拡張手法を提案する。
実験の結果,これらの生成したNIRデータセットは,データ品質とベースライン予測性能の点で,既存のデータセットに匹敵することがわかった。
論文 参考訳(メタデータ) (2022-06-28T11:06:32Z) - Evaluation of Human and Machine Face Detection using a Novel Distinctive
Human Appearance Dataset [0.76146285961466]
画像中の顔を検出する能力において,現在最先端の顔検出モデルを評価する。
評価結果から,顔検出アルゴリズムは多様な外観に適さないことが示された。
論文 参考訳(メタデータ) (2021-11-01T02:20:40Z) - Understanding and Mitigating Annotation Bias in Facial Expression
Recognition [3.325054486984015]
現存する多くの著作は、人為的なアノテーションは金本位制であり、偏見のないものと見なすことができると仮定している。
顔の表情認識に焦点をあて、実験室で制御されたデータセットと現場のデータセットのラベルバイアスを比較する。
本稿では,顔動作単位(AU)を活用し,三重項損失を対象関数に組み込むAU校正顔表情認識フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-19T05:28:07Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。