論文の概要: Addressing Racial Bias in Facial Emotion Recognition
- arxiv url: http://arxiv.org/abs/2308.04674v1
- Date: Wed, 9 Aug 2023 03:03:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 15:21:36.757916
- Title: Addressing Racial Bias in Facial Emotion Recognition
- Title(参考訳): 表情認識における顔面バイアスの対応
- Authors: Alex Fan, Xingshuo Xiao, Peter Washington
- Abstract要約: 本研究は、人種分布の異なるサブサンプリングトレーニングセットによる人種バイアスの分析に焦点を当てた。
その結果,シミュレーションが人種的バランスに近づくにつれて,顔の小さいデータセットは公平さとパフォーマンスの指標の両方を改善することが示唆された。
顔の変動が大きい大きなデータセットでは、公正度指標は概して一定であり、人種的バランス自体が異なる人種グループ間でのテストパフォーマンスの同等性を達成するには不十分であることを示唆している。
- 参考スコア(独自算出の注目度): 1.4896509623302834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness in deep learning models trained with high-dimensional inputs and
subjective labels remains a complex and understudied area. Facial emotion
recognition, a domain where datasets are often racially imbalanced, can lead to
models that yield disparate outcomes across racial groups. This study focuses
on analyzing racial bias by sub-sampling training sets with varied racial
distributions and assessing test performance across these simulations. Our
findings indicate that smaller datasets with posed faces improve on both
fairness and performance metrics as the simulations approach racial balance.
Notably, the F1-score increases by $27.2\%$ points, and demographic parity
increases by $15.7\%$ points on average across the simulations. However, in
larger datasets with greater facial variation, fairness metrics generally
remain constant, suggesting that racial balance by itself is insufficient to
achieve parity in test performance across different racial groups.
- Abstract(参考訳): 高次元入力と主観的ラベルで訓練された深層学習モデルの公平性は、複雑で実証された領域のままである。
データセットがしばしば人種的に不均衡なドメインである顔の感情認識は、人種集団間で異なる結果をもたらすモデルにつながる可能性がある。
本研究は、人種分布の異なるサブサンプリングトレーニングセットによる人種バイアスの分析と、これらのシミュレーションにおけるテスト性能の評価に焦点をあてる。
その結果, シミュレーションが人種的バランスに近づくにつれて, 顔つきの小さなデータセットが公平さとパフォーマンスの指標の両方を改善していることがわかった。
注目すべきは、f1-scoreは27.2\%$ポイント、人口統計学的パリティは平均で15.7\%$ポイント上昇である。
しかし、顔のばらつきが大きい大きなデータセットでは、公平度メトリクスは一般的に一定であり、人種間のバランスが異なる人種間でのテストパフォーマンスの同等性を達成するには不十分であることを示唆している。
関連論文リスト
- Towards Fair Face Verification: An In-depth Analysis of Demographic
Biases [11.191375513738361]
近年,深層学習に基づく人物識別・検証システムは,精度の面で著しく向上している。
しかし、このようなシステムは人種、年齢、性別に関する重大な偏見を呈している。
本稿では,これらの要因の交叉性に着目した詳細な分析を行う。
論文 参考訳(メタデータ) (2023-07-19T14:49:14Z) - The Impact of Racial Distribution in Training Data on Face Recognition
Bias: A Closer Look [0.0]
トレーニングデータにおける人種分布が顔認識モデルの性能に及ぼす影響について検討する。
精度メトリクス、クラスタリングメトリクス、UMAPプロジェクション、顔の品質、決定しきい値を用いて、これらのトレーニングされたモデルを解析する。
論文 参考訳(メタデータ) (2022-11-26T07:03:24Z) - Studying Bias in GANs through the Lens of Race [91.95264864405493]
本研究では, 画像生成モデルの性能と評価が, 学習データセットの人種構成にどのように影響するかを検討する。
その結果, 生成した画像の人種構成は, トレーニングデータの保存に成功していることがわかった。
しかし、推論中に高品質な画像を生成する手法であるトランケーションは、データの人種的不均衡を悪化させる。
論文 参考訳(メタデータ) (2022-09-06T22:25:56Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Fairness in Cardiac MR Image Analysis: An Investigation of Bias Due to
Data Imbalance in Deep Learning Based Segmentation [1.6386696247541932]
AIにおける「フェアネス」とは、人種や性別などの人口統計特性に基づいて、潜在的なバイアスのアルゴリズムを評価することを指す。
近年, 心MR領域の深層学習(DL)が注目されているが, それらの妥当性についてはまだ研究されていない。
異なる人種集団間でDiceのパフォーマンスに統計的に有意な差が認められた。
論文 参考訳(メタデータ) (2021-06-23T13:27:35Z) - One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision [75.82110684355979]
顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
論文 参考訳(メタデータ) (2021-02-03T22:50:04Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z) - Exploring Racial Bias within Face Recognition via per-subject
Adversarially-Enabled Data Augmentation [15.924281804465252]
本稿では,オブジェクト単位のデータセットバランスの実現を目的とした,新たな逆派生データ拡張手法を提案する。
我々の目的は、様々な人種領域にまたがる顔画像を変換することで、合成データセットを自動構築することである。
両面比較では,提案手法が(人種)少数集団の認識性能に与える影響が示唆された。
論文 参考訳(メタデータ) (2020-04-19T19:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。