論文の概要: Score Normalization for Demographic Fairness in Face Recognition
- arxiv url: http://arxiv.org/abs/2407.14087v1
- Date: Fri, 19 Jul 2024 07:51:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 18:23:52.975309
- Title: Score Normalization for Demographic Fairness in Face Recognition
- Title(参考訳): 顔認識におけるデモグラフィックフェアネスのためのスコア正規化
- Authors: Yu Linghu, Tiago des Freitas Pereira, Christophe Ecabert, Sébastien Marcel, Manuel Günther,
- Abstract要約: 有名なサンプル中心スコア正規化技術であるZ-normとT-normは、高セキュリティ動作点の公平性を向上しない。
標準Z/Tノルムを拡張し、正規化における人口統計情報を統合する。
本手法は,5つの最先端の顔認識ネットワークの全体的な公正性を改善する。
- 参考スコア(独自算出の注目度): 16.049007144046264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fair biometric algorithms have similar verification performance across different demographic groups given a single decision threshold. Unfortunately, for state-of-the-art face recognition networks, score distributions differ between demographics. Contrary to work that tries to align those distributions by extra training or fine-tuning, we solely focus on score post-processing methods. As proved, well-known sample-centered score normalization techniques, Z-norm and T-norm, do not improve fairness for high-security operating points. Thus, we extend the standard Z/T-norm to integrate demographic information in normalization. Additionally, we investigate several possibilities to incorporate cohort similarities for both genuine and impostor pairs per demographic to improve fairness across different operating points. We run experiments on two datasets with different demographics (gender and ethnicity) and show that our techniques generally improve the overall fairness of five state-of-the-art pre-trained face recognition networks, without downgrading verification performance. We also indicate that an equal contribution of False Match Rate (FMR) and False Non-Match Rate (FNMR) in fairness evaluation is required for the highest gains. Code and protocols are available.
- Abstract(参考訳): 公平なバイオメトリックアルゴリズムは、一つの決定しきい値が与えられた異なる人口集団間で同様の検証性能を有する。
残念ながら、最先端の顔認識ネットワークでは、スコアの分布は人口統計によって異なる。
余分なトレーニングや微調整によってこれらの分散を調整しようとする作業とは対照的に、私たちは単にポストプロセッシングの方法のスコアに重点を置いています。
証明されたように、よく知られたサンプル中心のスコア正規化手法であるZノルムとTノルムは、高セキュリティ動作点の公平性を向上しない。
そこで我々は、標準Z/Tノルムを拡張して、正規化における人口統計情報を統合する。
さらに,各個体群ごとのコホート類似性を具現化して,異なる操作点間の公平性を向上する可能性についても検討した。
我々は、異なる人口層(性別と民族)を持つ2つのデータセットで実験を行い、我々の技術が一般的に、検証性能を低下させることなく、5つの最先端の顔認識ネットワークの全体的な公正性を改善することを示す。
また,FMR(False Match Rate)とFNMR(False Non-Match Rate)の等価寄与が,高い利得に対して必要であることを示す。
コードとプロトコルが利用可能である。
関連論文リスト
- Mitigating Matching Biases Through Score Calibration [1.5530839016602822]
レコードマッチングにおけるバイアスの結果は、人口集団間での不平等なエラー率をもたらし、倫理的および法的懸念を提起する。
本稿では,従来の回帰モデルに適用された公正度指標を適用し,レコードマッチングにおけるすべてのしきい値の累積バイアスを評価する。
本稿では, 最適輸送理論とワッサーシュタインバリセンタを利用して, 階層群間でのマッチングスコアのバランスをとることを目的とした, ポストプロセッシングキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2024-11-03T21:01:40Z) - Individual Fairness Through Reweighting and Tuning [0.23395944472515745]
社会内の本質的なバイアスは、人工知能(AI)システムによって増幅し、永続することができる。
近年,グラフラプラシアン正則化器 (GLR) が一般リプシッツ条件の代用として用いられ,個人の公正性を高めている。
本研究では,GLRを列車上で独立に定義し,目標データに類似した精度を維持できるかどうかを検討した。
論文 参考訳(メタデータ) (2024-05-02T20:15:25Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを紹介する。
Fair MEDLは、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
敵の偏見を取り入れて、平等化オッド、デモグラフィックパリティ、カウンターファクトフェアネスの3つの主要な指標の公平性を促進する。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fair Federated Learning for Heterogeneous Face Data [10.707311210901548]
フェデレートラーニング(FL)において、データの不均一性の下で公平に分類することの問題点を考察する。
公平な分類のために提案されたアプローチのほとんどは、関係する異なる人口集団を表す多様なデータを必要とする。
対照的に、各クライアントは単一の人口グループのみを表すデータを所有することが一般的である。
論文 参考訳(メタデータ) (2021-09-06T10:44:16Z) - Consistent Instance False Positive Improves Fairness in Face Recognition [46.55971583252501]
既存の手法は正確な人口統計学のアノテーションに大きく依存している。
これらの手法は典型的には特定の人口集団のために設計されており、一般には不十分である。
本稿では, 偽陽性率の一貫性を高め, 顔認識バイアスを緩和する偽陽性率ペナルティ損失を提案する。
論文 参考訳(メタデータ) (2021-06-10T06:20:37Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。