論文の概要: Post-Comparison Mitigation of Demographic Bias in Face Recognition Using
Fair Score Normalization
- arxiv url: http://arxiv.org/abs/2002.03592v3
- Date: Thu, 5 Nov 2020 14:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 08:57:50.922549
- Title: Post-Comparison Mitigation of Demographic Bias in Face Recognition Using
Fair Score Normalization
- Title(参考訳): フェアスコア正規化を用いた顔認識におけるデモグラフィックバイアスの除去
- Authors: Philipp Terh\"orst, Jan Niklas Kolf, Naser Damer, Florian
Kirchbuchner, Arjan Kuijper
- Abstract要約: 顔認識におけるバイアスの影響を低減するために,教師なしのフェアスコア正規化手法を提案する。
我々の解決策は、性別を考慮した場合の人口バイアスを最大82.7%削減する。
従来の研究とは対照的に、我々の公正な正規化アプローチは、偽一致率0.001で53.2%、偽一致率0.00001で82.9%まで全体の性能を向上させる。
- 参考スコア(独自算出の注目度): 15.431761867166
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Current face recognition systems achieve high progress on several benchmark
tests. Despite this progress, recent works showed that these systems are
strongly biased against demographic sub-groups. Consequently, an easily
integrable solution is needed to reduce the discriminatory effect of these
biased systems. Previous work mainly focused on learning less biased face
representations, which comes at the cost of a strongly degraded overall
recognition performance. In this work, we propose a novel unsupervised fair
score normalization approach that is specifically designed to reduce the effect
of bias in face recognition and subsequently lead to a significant overall
performance boost. Our hypothesis is built on the notation of individual
fairness by designing a normalization approach that leads to treating similar
individuals similarly. Experiments were conducted on three publicly available
datasets captured under controlled and in-the-wild circumstances. Results
demonstrate that our solution reduces demographic biases, e.g. by up to 82.7%
in the case when gender is considered. Moreover, it mitigates the bias more
consistently than existing works. In contrast to previous works, our fair
normalization approach enhances the overall performance by up to 53.2% at false
match rate of 0.001 and up to 82.9% at a false match rate of 0.00001.
Additionally, it is easily integrable into existing recognition systems and not
limited to face biometrics.
- Abstract(参考訳): 現在の顔認識システムは、いくつかのベンチマークテストで高い進歩を達成している。
この進歩にもかかわらず、最近の研究は、これらのシステムが人口集団のサブグループに対して強く偏っていることを示した。
したがって、これらの偏りのあるシステムの識別効果を低減するために、容易に積分可能な解が必要である。
これまでの研究は主にバイアスの少ない顔表現の学習に重点を置いていた。
本研究では,非教師付きフェアスコア正規化手法を提案する。このアプローチは,顔認識におけるバイアスの影響を低減し,その結果,全体的なパフォーマンス向上につながる。
我々の仮説は、類似した個人を同様に扱うための正規化アプローチを設計することで、個々人の公正さの表記に基づいている。
制御された状況と野生状態の3つの公開データセットで実験を行った。
その結果,性別を考慮した場合の人口バイアスを最大82.7%削減できることがわかった。
さらに、既存の作業よりもバイアスを一貫して軽減します。
従来の研究とは対照的に、我々の公正な正規化アプローチは、偽一致率0.001で53.2%、偽一致率0.00001で82.9%まで全体の性能を向上させる。
さらに、既存の認識システムに容易に統合でき、顔バイオメトリックスに限定されない。
関連論文リスト
- Improving Bias in Facial Attribute Classification: A Combined Impact of KL Divergence induced Loss Function and Dual Attention [3.5527561584422465]
初期のシステムは、特に性別や人種の分類において、しばしば人口統計上の偏見を示しており、肌の色合いが暗い女性や個人の精度は低かった。
本稿では,KL分割正規化とクロスエントロピー損失関数によって強化された,事前学習型Inception-ResNet V1モデルを用いた二重注意機構を用いた手法を提案する。
実験の結果,公正度と分類精度の両面で有意な改善が見られ,偏見に対処し,顔認識システムの信頼性を高めることが期待できる。
論文 参考訳(メタデータ) (2024-10-15T01:29:09Z) - Score Normalization for Demographic Fairness in Face Recognition [16.421833444307232]
有名なサンプル中心スコア正規化技術であるZ-normとT-normは、高セキュリティ動作点の公平性を向上しない。
標準Z/Tノルムを拡張し、正規化における人口統計情報を統合する。
本手法は,5つの最先端の顔認識ネットワークの全体的な公正性を改善する。
論文 参考訳(メタデータ) (2024-07-19T07:51:51Z) - Towards Fair Face Verification: An In-depth Analysis of Demographic
Biases [11.191375513738361]
近年,深層学習に基づく人物識別・検証システムは,精度の面で著しく向上している。
しかし、このようなシステムは人種、年齢、性別に関する重大な偏見を呈している。
本稿では,これらの要因の交叉性に着目した詳細な分析を行う。
論文 参考訳(メタデータ) (2023-07-19T14:49:14Z) - MixFairFace: Towards Ultimate Fairness via MixFair Adapter in Face
Recognition [37.756287362799945]
属性に基づくフェアネス尺度は顔認識には適さないと我々は主張する。
本稿では,異なるアプローチの公平性を評価するための新しい評価プロトコルを提案する。
私たちのMixFairFaceアプローチは、すべてのベンチマークデータセットで最先端のフェアネスパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-11-28T09:47:21Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Gradient Based Activations for Accurate Bias-Free Learning [22.264226961225003]
このバイアス・精度のトレードオフを改善するために、偏微分器が実際に利用できることを示す。
具体的には、判別器の勾配を用いた特徴マスキング手法を用いる。
この単純なアプローチはバイアスを低減し、精度を大幅に向上させるのに有効であることを示す。
論文 参考訳(メタデータ) (2022-02-17T00:30:40Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。