論文の概要: Fairness Under Cover: Evaluating the Impact of Occlusions on Demographic Bias in Facial Recognition
- arxiv url: http://arxiv.org/abs/2408.10175v1
- Date: Mon, 19 Aug 2024 17:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 15:23:23.641982
- Title: Fairness Under Cover: Evaluating the Impact of Occlusions on Demographic Bias in Facial Recognition
- Title(参考訳): 被カバーの公正性:顔認識における咬合の影響評価
- Authors: Rafael M. Mamede, Pedro C. Neto, Ana F. Sequeira,
- Abstract要約: BUPT-BalancedおよびBUPT-GlobalFaceデータセット上で訓練した顔認識モデルの性能評価を行った。
そこで本研究では,異なる集団間でのモデル性能にどの程度のオクルージョンが影響するかを定量化する,新しい指標である顔閉塞インパクト比(FOIR)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study investigates the effects of occlusions on the fairness of face recognition systems, particularly focusing on demographic biases. Using the Racial Faces in the Wild (RFW) dataset and synthetically added realistic occlusions, we evaluate their effect on the performance of face recognition models trained on the BUPT-Balanced and BUPT-GlobalFace datasets. We note increases in the dispersion of FMR, FNMR, and accuracy alongside decreases in fairness according to Equilized Odds, Demographic Parity, STD of Accuracy, and Fairness Discrepancy Rate. Additionally, we utilize a pixel attribution method to understand the importance of occlusions in model predictions, proposing a new metric, Face Occlusion Impact Ratio (FOIR), that quantifies the extent to which occlusions affect model performance across different demographic groups. Our results indicate that occlusions exacerbate existing demographic biases, with models placing higher importance on occlusions in an unequal fashion, particularly affecting African individuals more severely.
- Abstract(参考訳): 本研究では,オクルージョンが顔認識システムの公平性に及ぼす影響について検討し,特に人口統計学的偏見に着目した。
The Racial Faces in the Wild (RFW) データセットを用いて, BUPT-Balanced および BUPT-GlobalFace データセットで訓練した顔認識モデルの性能評価を行った。
等価オッド, デモグラフィパリティ, 精度のSTD, 公正不一致率に応じて, FMR, FNMR, 精度の分散が増大し, 公正度も低下する。
さらに、モデル予測におけるオクルージョンの重要性を理解するために画素属性法を用いて、オクルージョンがモデル性能に影響を与える範囲を定量化する新しい指標であるFace Occlusion Impact Ratio(FOIR)を提案する。
その結果,オクルージョンが既存の人口バイアスを悪化させ,オクルージョンに重きを置くモデルが不平等な方法で,特にアフリカ人個人に深刻な影響を及ぼすことが示唆された。
関連論文リスト
- Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Toward Fair Facial Expression Recognition with Improved Distribution
Alignment [19.442685015494316]
本稿では,表情認識(FER)モデルにおけるバイアスを軽減する新しい手法を提案する。
本手法は、FERモデルによる埋め込みにおいて、性別、年齢、人種などの機密属性情報を低減することを目的としている。
ferモデルにおいて、魅力の概念を重要な感度属性として分析し、FERモデルがより魅力的な顔に対するバイアスを実際に示できることを実証する。
論文 参考訳(メタデータ) (2023-06-11T14:59:20Z) - Bayesian Networks for the robust and unbiased prediction of depression
and its symptoms utilizing speech and multimodal data [65.28160163774274]
我々は,抑うつ,抑うつ症状,および,胸腺で収集された音声,表情,認知ゲームデータから得られる特徴の関連性を把握するためにベイズ的枠組みを適用した。
論文 参考訳(メタデータ) (2022-11-09T14:48:13Z) - Enhancing Fairness of Visual Attribute Predictors [6.6424782986402615]
本稿では、復号化パリティ、等化オッド、新しいインターセクション・オーバ・ユニオン尺度のバッチ推定に基づいて、公平性に配慮した正規化損失を導入する。
我々の研究は、視覚特性予測器のバイアスを軽減するためのエンドツーエンドのトレーニングスキームにこの種の損失を取り入れる最初の試みである。
論文 参考訳(メタデータ) (2022-07-07T15:02:04Z) - Fair SA: Sensitivity Analysis for Fairness in Face Recognition [1.7149364927872013]
汎用フレームワークの形で頑健性に基づく新しい公正性評価を提案する。
我々は、一般的な顔認識モデルの性能を分析し、画像が摂動状態にある場合、ある種のサブグループが不利であることを実証的に示す。
論文 参考訳(メタデータ) (2022-02-08T01:16:09Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Reliability and Validity of Image-Based and Self-Reported Skin Phenotype
Metrics [0.0]
生体評価のための肌色測定は, 客観的, 特徴, 制御源から行う必要がある。
その結果,生体評価のための肌色測定は,客観的,特徴的,制御された情報源から行う必要があることがわかった。
論文 参考訳(メタデータ) (2021-06-18T16:12:24Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Investigating Bias and Fairness in Facial Expression Recognition [15.45073173331206]
表情認識におけるバイアスと公平性の3つのアプローチを比較した。
データ拡張はベースラインモデルの精度を向上させるが、このだけでバイアス効果を軽減することはできない。
歪んだアプローチは、人口統計バイアスを軽減するのに最適です。
論文 参考訳(メタデータ) (2020-07-20T13:12:53Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。