論文の概要: Gendered Differences in Face Recognition Accuracy Explained by
Hairstyles, Makeup, and Facial Morphology
- arxiv url: http://arxiv.org/abs/2112.14656v1
- Date: Wed, 29 Dec 2021 17:07:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 15:48:28.484302
- Title: Gendered Differences in Face Recognition Accuracy Explained by
Hairstyles, Makeup, and Facial Morphology
- Title(参考訳): ヘアスタイル, メイクアップ, 顔面形態で説明される顔認識精度の性差
- Authors: V\'itor Albiero, Kai Zhang, Michael C. King, Kevin W. Bowyer
- Abstract要約: 女性には顔認識精度が低いという研究文献に合意がある。
テスト画像中の可視面の等しい量の制御は、女性にとって明らかに高い偽非一致率を緩和する。
さらなる分析により、化粧バランスの取れたデータセットは女性をさらに改善し、偽の非マッチ率を低くすることが示された。
- 参考スコア(独自算出の注目度): 11.50297186426025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Media reports have accused face recognition of being ''biased'', ''sexist''
and ''racist''. There is consensus in the research literature that face
recognition accuracy is lower for females, who often have both a higher false
match rate and a higher false non-match rate. However, there is little
published research aimed at identifying the cause of lower accuracy for
females. For instance, the 2019 Face Recognition Vendor Test that documents
lower female accuracy across a broad range of algorithms and datasets also
lists ''Analyze cause and effect'' under the heading ''What we did not do''. We
present the first experimental analysis to identify major causes of lower face
recognition accuracy for females on datasets where previous research has
observed this result. Controlling for equal amount of visible face in the test
images mitigates the apparent higher false non-match rate for females.
Additional analysis shows that makeup-balanced datasets further improves
females to achieve lower false non-match rates. Finally, a clustering
experiment suggests that images of two different females are inherently more
similar than of two different males, potentially accounting for a difference in
false match rates.
- Abstract(参考訳): メディアの報道は、顔の認識が「偏見」「性差別」「人種差別」だと非難している。
研究文献では、偽の一致率と偽の非一致率の両方が高い女性に対して、顔認識精度が低いという見解が一致している。
しかし、女性に対する低い精度の原因を特定するための研究はほとんど発表されていない。
例えば、幅広いアルゴリズムとデータセットで女性の精度を低くする2019 Face Recognition Vendor Testでは、"Analyze cause and effect"という見出しで"What We did not'"を列挙している。
以上の結果が得られたデータセットを用いて,女性における顔認識精度の低下の主な原因を特定するための最初の実験的検討を行った。
テスト画像中の可視面の等しい量の制御は、女性にとって明らかに高い偽非一致率を緩和する。
さらなる分析により、メークアップバランスデータセットは女性を更に改善し、偽の非マッチング率を低下させることが示された。
最後に、クラスタリング実験は、2つの異なる女性の画像が2つの異なるオスと本質的に類似していることを示し、おそらくは偽の一致率の違いを考慮に入れている。
関連論文リスト
- Are Face Detection Models Biased? [69.68854430664399]
顔領域の局所化による顔検出領域のバイアスについて検討した。
既存の顔検出データセットの多くは、このような分析に適したアノテーションを欠いている。
性別や肌の音色による検出精度の相違を観察し, 画像診断以外の要因の相互関係を考察した。
論文 参考訳(メタデータ) (2022-11-07T14:27:55Z) - The Gender Gap in Face Recognition Accuracy Is a Hairy Problem [8.768049933358968]
まず、男女の髪型が顔の認識精度に影響を及ぼす重要な違いがあることを実証する。
そして、認識精度を推定するために使用されるデータが、髪型が顔を妨げるかによって性別間でバランスが取れている場合、当初観察された精度の男女差が大きく消失することを示した。
論文 参考訳(メタデータ) (2022-06-10T04:32:47Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Comparing Human and Machine Bias in Face Recognition [46.170389064229354]
我々はLFWとCelebAデータセットの改良版をリリースし、将来の研究者がアルゴリズムバイアスの測定値を得ることができるようにした。
また、これらの新しいデータを使って、顔認証と検証に関する一連の挑戦的な質問も開発しています。
検証作業において,コンピュータモデルと人的調査参加者の双方が有意に優れていたことが判明した。
論文 参考訳(メタデータ) (2021-10-15T22:26:20Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Does Face Recognition Error Echo Gender Classification Error? [9.176056742068813]
3つの異なる性別分類アルゴリズムと2つの顔認識アルゴリズムから結果を分析する。
本研究では,1つの画像が性別分類誤差を伴っている場合,インポスタの分布が良好であることを示した。
実画像ペアの場合, 画像に正と誤の男女分類が混在している個人は, 真に分布が悪くなることが示唆された。
論文 参考訳(メタデータ) (2021-04-28T14:43:31Z) - Is Face Recognition Sexist? No, Gendered Hairstyles and Biology Are [10.727923887885398]
本研究は,女性における顔認識精度の低下の主な原因を明らかにするための最初の実験的分析である。
テスト画像中の同じ量の可視顔を制御することは、女性にとって明らかに高い偽非一致率を逆転させる。
また、主成分分析では、2つの異なる雌のイメージが2つの異なる雄のイメージと本質的に類似していることが示されている。
論文 参考訳(メタデータ) (2020-08-16T20:29:05Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Towards Gender-Neutral Face Descriptors for Mitigating Bias in Face
Recognition [51.856693288834975]
最先端のディープネットワークは、顔認識のために訓練されている間、性別情報を暗黙的にエンコードする。
ジェンダーは顔を識別する上で重要な属性と見なされることが多い。
本稿では,顔ディスクリプタに存在する性別情報を減らすために,新たにAGENDA(Adversarial Gender De-biasing Algorithm)を提案する。
論文 参考訳(メタデータ) (2020-06-14T08:54:03Z) - How Does Gender Balance In Training Data Affect Face Recognition
Accuracy? [12.362029427868206]
女性に対する低い精度は、トレーニングデータにおける表現不足によって引き起こされると推測されることが多い。
本研究は,女子のトレーニングデータにおける表現不足が,テストデータにおける女性の精度低下の原因であることを示す。
論文 参考訳(メタデータ) (2020-02-07T18:11:01Z) - Analysis of Gender Inequality In Face Recognition Accuracy [11.6168015920729]
以上の結果から,(1) 類似度が高い女性に対して,(1) 類似度が高い女性に対して,(2) 類似度が高い女性に対して,(2) 類似度が高い女性に対して,詐欺師の分布は,女性の精度が低下していることが示唆された。
この現象は、アフリカ系アメリカ人、コーカサス系、アジア系の女性の顔のデータセットに共通している。
論文 参考訳(メタデータ) (2020-01-31T21:32:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。