論文の概要: Towards Gender-Neutral Face Descriptors for Mitigating Bias in Face
Recognition
- arxiv url: http://arxiv.org/abs/2006.07845v2
- Date: Thu, 17 Sep 2020 06:25:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 13:14:08.775638
- Title: Towards Gender-Neutral Face Descriptors for Mitigating Bias in Face
Recognition
- Title(参考訳): 顔認識におけるバイアス緩和のためのジェンダーニュートラル顔記述子を目指して
- Authors: Prithviraj Dhar, Joshua Gleason, Hossein Souri, Carlos D. Castillo,
Rama Chellappa
- Abstract要約: 最先端のディープネットワークは、顔認識のために訓練されている間、性別情報を暗黙的にエンコードする。
ジェンダーは顔を識別する上で重要な属性と見なされることが多い。
本稿では,顔ディスクリプタに存在する性別情報を減らすために,新たにAGENDA(Adversarial Gender De-biasing Algorithm)を提案する。
- 参考スコア(独自算出の注目度): 51.856693288834975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art deep networks implicitly encode gender information while
being trained for face recognition. Gender is often viewed as an important
attribute with respect to identifying faces. However, the implicit encoding of
gender information in face descriptors has two major issues: (a.) It makes the
descriptors susceptible to privacy leakage, i.e. a malicious agent can be
trained to predict the face gender from such descriptors. (b.) It appears to
contribute to gender bias in face recognition, i.e. we find a significant
difference in the recognition accuracy of DCNNs on male and female faces.
Therefore, we present a novel `Adversarial Gender De-biasing algorithm
(AGENDA)' to reduce the gender information present in face descriptors obtained
from previously trained face recognition networks. We show that AGENDA
significantly reduces gender predictability of face descriptors. Consequently,
we are also able to reduce gender bias in face verification while maintaining
reasonable recognition performance.
- Abstract(参考訳): 最先端のディープネットワークは、顔認識のために訓練されている間、性別情報を暗黙的にエンコードする。
性別はしばしば顔の識別に関して重要な属性と見なされる。
しかし、顔ディスクリプタにおける性別情報の暗黙的なエンコーディングには2つの大きな問題がある: (a) 悪意のあるエージェントがそのようなディスクリプタから顔の性別を予測するためにトレーニングすることができる。
(b)
これは、顔認識における性別バイアス、すなわち、男性と女性の顔におけるDCNNの認識精度に有意な違いがあると考えられる。
そこで本稿では,以前に訓練された顔認識ネットワークから得られた顔記述子に存在する性別情報を削減するための,新しい「AGENDA(Adversarial Gender De-biasing Algorithm)」を提案する。
AGENDAは顔記述子の性別予測可能性を著しく低下させる。
その結果,適切な認識性能を維持しつつ,顔認証における性別バイアスを低減できる。
関連論文リスト
- VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Are Face Detection Models Biased? [69.68854430664399]
顔領域の局所化による顔検出領域のバイアスについて検討した。
既存の顔検出データセットの多くは、このような分析に適したアノテーションを欠いている。
性別や肌の音色による検出精度の相違を観察し, 画像診断以外の要因の相互関係を考察した。
論文 参考訳(メタデータ) (2022-11-07T14:27:55Z) - Explaining Bias in Deep Face Recognition via Image Characteristics [9.569575076277523]
2つのデータセットのセキュリティとユーザビリティの観点から,10種類の最先端の顔認識モデルを評価し,その妥当性を比較した。
次に,画像特性がモデル性能に与える影響を解析する。
論文 参考訳(メタデータ) (2022-08-23T17:18:23Z) - The Gender Gap in Face Recognition Accuracy Is a Hairy Problem [8.768049933358968]
まず、男女の髪型が顔の認識精度に影響を及ぼす重要な違いがあることを実証する。
そして、認識精度を推定するために使用されるデータが、髪型が顔を妨げるかによって性別間でバランスが取れている場合、当初観察された精度の男女差が大きく消失することを示した。
論文 参考訳(メタデータ) (2022-06-10T04:32:47Z) - ArcFace Knows the Gender, Too! [0.0]
本稿では、性別分類の新しいモデルを定義する代わりに、ArcFace機能を使用して性別を決定する。
Support Vector Machine (SVM)、Linear Discriminant、Logistic Regressionといった差別的手法は、ArcFaceから抽出された特徴が、性別クラスを著しく区別することを示している。
論文 参考訳(メタデータ) (2021-12-19T10:00:36Z) - Learning Fair Face Representation With Progressive Cross Transformer [79.73754444296213]
フェアフェイス認識のためのプログレッシブクロストランス (PCT) 手法を提案する。
我々は,PCTが最先端FR性能を達成しつつ,顔認識におけるバイアスを軽減することができることを示した。
論文 参考訳(メタデータ) (2021-08-11T01:31:14Z) - PASS: Protected Attribute Suppression System for Mitigating Bias in Face
Recognition [55.858374644761525]
顔認識ネットワークは、識別分類のために訓練されている間、機密属性に関する情報を符号化する。
既存のバイアス緩和アプローチでは、エンドツーエンドのトレーニングが必要であり、高い精度を達成できない。
PASS(Protected Attribute Suppression System)と呼ばれる記述子に基づく逆バイアス除去手法を提案する。
パスは、以前に訓練されたハイパフォーマンスネットワークから得られた記述子を使って、アイデンティティを分類し、機密属性のエンコーディングを同時に削減することができる。
論文 参考訳(メタデータ) (2021-08-09T00:39:22Z) - Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification [93.5538147928669]
最新のオープンソースの顔認識システムであるArcFaceを、100万枚以上の散らばった画像を用いた大規模な顔識別実験で監査する。
モデルのトレーニングデータには79.71%、存在しない人には75.73%のランク1顔認証精度がある。
論文 参考訳(メタデータ) (2020-01-09T15:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。