論文の概要: Analysis of Gender Inequality In Face Recognition Accuracy
- arxiv url: http://arxiv.org/abs/2002.00065v1
- Date: Fri, 31 Jan 2020 21:32:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 06:40:00.112472
- Title: Analysis of Gender Inequality In Face Recognition Accuracy
- Title(参考訳): 顔認識精度における男女不平等の分析
- Authors: V\'itor Albiero, Krishnapriya K.S., Kushal Vangara, Kai Zhang, Michael
C. King, and Kevin W. Bowyer
- Abstract要約: 以上の結果から,(1) 類似度が高い女性に対して,(1) 類似度が高い女性に対して,(2) 類似度が高い女性に対して,(2) 類似度が高い女性に対して,詐欺師の分布は,女性の精度が低下していることが示唆された。
この現象は、アフリカ系アメリカ人、コーカサス系、アジア系の女性の顔のデータセットに共通している。
- 参考スコア(独自算出の注目度): 11.6168015920729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a comprehensive analysis of how and why face recognition accuracy
differs between men and women. We show that accuracy is lower for women due to
the combination of (1) the impostor distribution for women having a skew toward
higher similarity scores, and (2) the genuine distribution for women having a
skew toward lower similarity scores. We show that this phenomenon of the
impostor and genuine distributions for women shifting closer towards each other
is general across datasets of African-American, Caucasian, and Asian faces. We
show that the distribution of facial expressions may differ between
male/female, but that the accuracy difference persists for image subsets rated
confidently as neutral expression. The accuracy difference also persists for
image subsets rated as close to zero pitch angle. Even when removing images
with forehead partially occluded by hair/hat, the same impostor/genuine
accuracy difference persists. We show that the female genuine distribution
improves when only female images without facial cosmetics are used, but that
the female impostor distribution also degrades at the same time. Lastly, we
show that the accuracy difference persists even if a state-of-the-art deep
learning method is trained from scratch using training data explicitly balanced
between male and female images and subjects.
- Abstract(参考訳): 本稿では,男女の顔認識精度の違いについて,包括的分析を行った。
その結果,(1)高い類似度点への傾き,(2)低い類似度点に傾きを持つ女性の真の分布,の組合せにより,女性では精度が低下することがわかった。
この現象は、アフリカ系アメリカ人、白人、アジアの顔のデータセットにまたがって、女性同士が互いに近寄って行くという、詐欺師と真正な分布という現象が一般的であることを示している。
顔表情の分布は男性/女性によって異なるが, 画像サブセットの精度差は中性表現として自信を持って評価される。
精度の差は、ピッチ角が0に近い画像部分集合に対しても持続する。
毛髪や帽子によって部分的に隠された額の画像を除去しても、同じインポスタ/遺伝子精度差が持続する。
顔料を使用しない女性像のみを用いた場合, 女性の真の分布は改善するが, 同時に女性インポスタ分布も低下することを示した。
最後に,男女画像と被験者のバランスのとれたトレーニングデータを用いて,最先端のディープラーニング手法をスクラッチからトレーニングしても精度の差は持続することを示す。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - The Gender Gap in Face Recognition Accuracy Is a Hairy Problem [8.768049933358968]
まず、男女の髪型が顔の認識精度に影響を及ぼす重要な違いがあることを実証する。
そして、認識精度を推定するために使用されるデータが、髪型が顔を妨げるかによって性別間でバランスが取れている場合、当初観察された精度の男女差が大きく消失することを示した。
論文 参考訳(メタデータ) (2022-06-10T04:32:47Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Gendered Differences in Face Recognition Accuracy Explained by
Hairstyles, Makeup, and Facial Morphology [11.50297186426025]
女性には顔認識精度が低いという研究文献に合意がある。
テスト画像中の可視面の等しい量の制御は、女性にとって明らかに高い偽非一致率を緩和する。
さらなる分析により、化粧バランスの取れたデータセットは女性をさらに改善し、偽の非マッチ率を低くすることが示された。
論文 参考訳(メタデータ) (2021-12-29T17:07:33Z) - Does Face Recognition Error Echo Gender Classification Error? [9.176056742068813]
3つの異なる性別分類アルゴリズムと2つの顔認識アルゴリズムから結果を分析する。
本研究では,1つの画像が性別分類誤差を伴っている場合,インポスタの分布が良好であることを示した。
実画像ペアの場合, 画像に正と誤の男女分類が混在している個人は, 真に分布が悪くなることが示唆された。
論文 参考訳(メタデータ) (2021-04-28T14:43:31Z) - Is Face Recognition Sexist? No, Gendered Hairstyles and Biology Are [10.727923887885398]
本研究は,女性における顔認識精度の低下の主な原因を明らかにするための最初の実験的分析である。
テスト画像中の同じ量の可視顔を制御することは、女性にとって明らかに高い偽非一致率を逆転させる。
また、主成分分析では、2つの異なる雌のイメージが2つの異なる雄のイメージと本質的に類似していることが示されている。
論文 参考訳(メタデータ) (2020-08-16T20:29:05Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Towards Gender-Neutral Face Descriptors for Mitigating Bias in Face
Recognition [51.856693288834975]
最先端のディープネットワークは、顔認識のために訓練されている間、性別情報を暗黙的にエンコードする。
ジェンダーは顔を識別する上で重要な属性と見なされることが多い。
本稿では,顔ディスクリプタに存在する性別情報を減らすために,新たにAGENDA(Adversarial Gender De-biasing Algorithm)を提案する。
論文 参考訳(メタデータ) (2020-06-14T08:54:03Z) - How Does Gender Balance In Training Data Affect Face Recognition
Accuracy? [12.362029427868206]
女性に対する低い精度は、トレーニングデータにおける表現不足によって引き起こされると推測されることが多い。
本研究は,女子のトレーニングデータにおける表現不足が,テストデータにおける女性の精度低下の原因であることを示す。
論文 参考訳(メタデータ) (2020-02-07T18:11:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。