論文の概要: Towards Fair Face Verification: An In-depth Analysis of Demographic
Biases
- arxiv url: http://arxiv.org/abs/2307.10011v1
- Date: Wed, 19 Jul 2023 14:49:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 13:37:37.035842
- Title: Towards Fair Face Verification: An In-depth Analysis of Demographic
Biases
- Title(参考訳): 公平な顔認証に向けて--人口バイアスの深い分析
- Authors: Ioannis Sarridis, Christos Koutlis, Symeon Papadopoulos, Christos Diou
- Abstract要約: 近年,深層学習に基づく人物識別・検証システムは,精度の面で著しく向上している。
しかし、このようなシステムは人種、年齢、性別に関する重大な偏見を呈している。
本稿では,これらの要因の交叉性に着目した詳細な分析を行う。
- 参考スコア(独自算出の注目度): 11.191375513738361
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning-based person identification and verification systems have
remarkably improved in terms of accuracy in recent years; however, such
systems, including widely popular cloud-based solutions, have been found to
exhibit significant biases related to race, age, and gender, a problem that
requires in-depth exploration and solutions. This paper presents an in-depth
analysis, with a particular emphasis on the intersectionality of these
demographic factors. Intersectional bias refers to the performance
discrepancies w.r.t. the different combinations of race, age, and gender
groups, an area relatively unexplored in current literature. Furthermore, the
reliance of most state-of-the-art approaches on accuracy as the principal
evaluation metric often masks significant demographic disparities in
performance. To counter this crucial limitation, we incorporate five additional
metrics in our quantitative analysis, including disparate impact and
mistreatment metrics, which are typically ignored by the relevant
fairness-aware approaches. Results on the Racial Faces in-the-Wild (RFW)
benchmark indicate pervasive biases in face recognition systems, extending
beyond race, with different demographic factors yielding significantly
disparate outcomes. In particular, Africans demonstrate an 11.25% lower True
Positive Rate (TPR) compared to Caucasians, while only a 3.51% accuracy drop is
observed. Even more concerning, the intersections of multiple protected groups,
such as African females over 60 years old, demonstrate a +39.89% disparate
mistreatment rate compared to the highest Caucasians rate. By shedding light on
these biases and their implications, this paper aims to stimulate further
research towards developing fairer, more equitable face recognition and
verification systems.
- Abstract(参考訳): 近年、深層学習に基づく人物識別・検証システムは精度が著しく向上しているが、広く普及しているクラウドベースのソリューションを含むシステムでは、人種、年齢、性別に重大な偏りがあることが判明している。
本稿では,これらの要因の交叉性に特に重点を置いた詳細な分析を行う。
インターセクションバイアス(Intersectional bias)とは、人種、年齢、性別の異なる組み合わせにおけるパフォーマンスの格差を指す。
さらに、主要な評価基準として、ほとんどの最先端のアプローチが精度に依存していることは、しばしばパフォーマンスにおける顕著な人口格差を隠蔽している。
この決定的な制限に対処するため、我々は定量的分析に5つの追加の指標を組み込んでおり、その中には異なる影響と不適切な扱いの指標が含まれており、これは関連する公正なアプローチによって無視される。
Racial Faces in-the-Wild(RFW)ベンチマークの結果は、人種を超えて広がる顔認識システムにおける広汎なバイアスを示し、異なる人口統計学的要因が著しく異なる結果をもたらすことを示している。
特に、アフリカ人はコーカサスよりも11.25%低い正正の率(TPR)を示しており、正確度は3.51%である。
さらに、60歳以上のアフリカ人女性のような複数の保護されたグループの交差点は、コーカサスの最高水準と比べて、+39.89%の異なる虐待率を示している。
本論文は,これらのバイアスとその影響を解明し,より公平で公平な顔認証システムの開発に向けたさらなる研究を促進することを目的としている。
関連論文リスト
- Improving Bias in Facial Attribute Classification: A Combined Impact of KL Divergence induced Loss Function and Dual Attention [3.5527561584422465]
初期のシステムは、特に性別や人種の分類において、しばしば人口統計上の偏見を示しており、肌の色合いが暗い女性や個人の精度は低かった。
本稿では,KL分割正規化とクロスエントロピー損失関数によって強化された,事前学習型Inception-ResNet V1モデルを用いた二重注意機構を用いた手法を提案する。
実験の結果,公正度と分類精度の両面で有意な改善が見られ,偏見に対処し,顔認識システムの信頼性を高めることが期待できる。
論文 参考訳(メタデータ) (2024-10-15T01:29:09Z) - Deep Generative Views to Mitigate Gender Classification Bias Across
Gender-Race Groups [0.8594140167290097]
本稿では,性別・人種グループ間の偏見を低減し,分類精度を向上させるためのバイアス緩和戦略を提案する。
我々は、ジェンダー分類バイアスを軽減するために、生成的視点、構造化学習、そして明らかな学習の力を利用する。
論文 参考訳(メタデータ) (2022-08-17T16:23:35Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Information-Theoretic Bias Assessment Of Learned Representations Of
Pretrained Face Recognition [18.07966649678408]
保護された人口統計属性に対するバイアスの度合いを特定するために,情報理論,独立バイアス評価指標を提案する。
我々の測定基準は、分類精度に依存する他の方法と異なり、浅いネットワークを用いて予測される保護属性の予測ラベルと地上の真実の差を調べる。
論文 参考訳(メタデータ) (2021-11-08T17:41:17Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - An Examination of Fairness of AI Models for Deepfake Detection [5.4852920337961235]
我々は保護されたサブグループ間のディープフェイクデータセットおよび検出モデルに存在するバイアスを評価する。
人種と性別のバランスをとる顔データセットを用いて,3つの一般的なディープフェイク検出器を調べ,人種間の予測性能に大きな差を見出した。
論文 参考訳(メタデータ) (2021-05-02T21:55:04Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Understanding Fairness of Gender Classification Algorithms Across
Gender-Race Groups [0.8594140167290097]
本研究の目的は,性別・人種間の性別分類アルゴリズムの差分性能について検討することである。
すべてのアルゴリズムにおいて、黒人女性(一般には黒人人種)は最小の精度で常に取得した。
中東の男性とラテン系の女性は、ほとんどの場合より高い精度で取得した。
論文 参考訳(メタデータ) (2020-09-24T04:56:10Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。