論文の概要: Consistent Instance False Positive Improves Fairness in Face Recognition
- arxiv url: http://arxiv.org/abs/2106.05519v1
- Date: Thu, 10 Jun 2021 06:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 14:21:06.022596
- Title: Consistent Instance False Positive Improves Fairness in Face Recognition
- Title(参考訳): Consistent Instance False Positiveは顔認識の公平性を向上する
- Authors: Xingkun Xu, Yuge Huang, Pengcheng Shen, Shaoxin Li, Jilin Li, Feiyue
Huang, Yong Li, Zhen Cui
- Abstract要約: 既存の手法は正確な人口統計学のアノテーションに大きく依存している。
これらの手法は典型的には特定の人口集団のために設計されており、一般には不十分である。
本稿では, 偽陽性率の一貫性を高め, 顔認識バイアスを緩和する偽陽性率ペナルティ損失を提案する。
- 参考スコア(独自算出の注目度): 46.55971583252501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Demographic bias is a significant challenge in practical face recognition
systems. Existing methods heavily rely on accurate demographic annotations.
However, such annotations are usually unavailable in real scenarios. Moreover,
these methods are typically designed for a specific demographic group and are
not general enough. In this paper, we propose a false positive rate penalty
loss, which mitigates face recognition bias by increasing the consistency of
instance False Positive Rate (FPR). Specifically, we first define the instance
FPR as the ratio between the number of the non-target similarities above a
unified threshold and the total number of the non-target similarities. The
unified threshold is estimated for a given total FPR. Then, an additional
penalty term, which is in proportion to the ratio of instance FPR overall FPR,
is introduced into the denominator of the softmax-based loss. The larger the
instance FPR, the larger the penalty. By such unequal penalties, the instance
FPRs are supposed to be consistent. Compared with the previous debiasing
methods, our method requires no demographic annotations. Thus, it can mitigate
the bias among demographic groups divided by various attributes, and these
attributes are not needed to be previously predefined during training.
Extensive experimental results on popular benchmarks demonstrate the
superiority of our method over state-of-the-art competitors. Code and trained
models are available at https://github.com/Tencent/TFace.
- Abstract(参考訳): 人口統計バイアスは、実用的な顔認識システムにおいて重要な課題である。
既存の手法は正確な統計アノテーションに大きく依存している。
しかし、そのようなアノテーションは実際のシナリオでは利用できない。
さらに、これらの方法は一般的に特定の人口層向けに設計されており、一般には不十分である。
本稿では,False Positive Rate (FPR) の整合性を高め,顔認識バイアスを緩和する偽陽性率のペナルティ損失を提案する。
具体的には、まずインスタンスFPRを、統一しきい値以上の非ターゲット類似点の数と非ターゲット類似点の総数との比として定義する。
所定の総fprに対して統一閾値を推定する。
次に、ソフトマックスベース損失の分母に、例えばFPR全体のFPR比に比例した追加のペナルティ項を導入する。
FPRが大きければ大きいほど、ペナルティは大きくなる。
このような不平等な罰則により、FPRのインスタンスは一貫したものになる。
従来のdebiasing法と比較して,本手法は人口統計学的アノテーションを必要としない。
したがって、様々な属性で分類された集団間のバイアスを軽減でき、これらの属性はトレーニング中に予め定義しておく必要はない。
人気のあるベンチマークの広範な実験結果から、最先端の競合相手よりも優れた方法が示されている。
コードとトレーニングされたモデルはhttps://github.com/Tencent/TFace.comで入手できる。
関連論文リスト
- Score Normalization for Demographic Fairness in Face Recognition [16.421833444307232]
有名なサンプル中心スコア正規化技術であるZ-normとT-normは、高セキュリティ動作点の公平性を向上しない。
標準Z/Tノルムを拡張し、正規化における人口統計情報を統合する。
本手法は,5つの最先端の顔認識ネットワークの全体的な公正性を改善する。
論文 参考訳(メタデータ) (2024-07-19T07:51:51Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Mitigating Gender Bias in Face Recognition Using the von Mises-Fisher
Mixture Model [7.049738935364298]
本研究では,ディープ顔認識ネットワークの性別バイアスについて検討する。
幾何学的考察により、新しいポストプロセッシング手法により性別バイアスを緩和する。
実際、様々なデータセットに関する広範な数値実験は、慎重に選択することで性バイアスが大幅に減少することを示している。
論文 参考訳(メタデータ) (2022-10-24T23:53:56Z) - Debiasing Neural Retrieval via In-batch Balancing Regularization [25.941718123899356]
我々は,nPRF上でのT-統計を有効活用し,公平性を向上させるために,識別可能なテキストトナー付きペアワイドランキングフェアネス(nPRF)を開発した。
nPRF を用いた手法は,ベースラインに比べてランク付け性能の低下が最小限に抑えられ,バイアスが大幅に低減される。
論文 参考訳(メタデータ) (2022-05-18T22:57:15Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Post-Comparison Mitigation of Demographic Bias in Face Recognition Using
Fair Score Normalization [15.431761867166]
顔認識におけるバイアスの影響を低減するために,教師なしのフェアスコア正規化手法を提案する。
我々の解決策は、性別を考慮した場合の人口バイアスを最大82.7%削減する。
従来の研究とは対照的に、我々の公正な正規化アプローチは、偽一致率0.001で53.2%、偽一致率0.00001で82.9%まで全体の性能を向上させる。
論文 参考訳(メタデータ) (2020-02-10T08:17:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。