論文の概要: The Gender Gap in Face Recognition Accuracy Is a Hairy Problem
- arxiv url: http://arxiv.org/abs/2206.04867v1
- Date: Fri, 10 Jun 2022 04:32:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 15:36:33.526471
- Title: The Gender Gap in Face Recognition Accuracy Is a Hairy Problem
- Title(参考訳): 顔認識精度の男女差は毛むくじゃらの問題だ
- Authors: Aman Bhatta, V\'itor Albiero, Kevin W. Bowyer, Michael C. King
- Abstract要約: まず、男女の髪型が顔の認識精度に影響を及ぼす重要な違いがあることを実証する。
そして、認識精度を推定するために使用されるデータが、髪型が顔を妨げるかによって性別間でバランスが取れている場合、当初観察された精度の男女差が大きく消失することを示した。
- 参考スコア(独自算出の注目度): 8.768049933358968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is broadly accepted that there is a "gender gap" in face recognition
accuracy, with females having higher false match and false non-match rates.
However, relatively little is known about the cause(s) of this gender gap. Even
the recent NIST report on demographic effects lists "analyze cause and effect"
under "what we did not do". We first demonstrate that female and male
hairstyles have important differences that impact face recognition accuracy. In
particular, compared to females, male facial hair contributes to creating a
greater average difference in appearance between different male faces. We then
demonstrate that when the data used to estimate recognition accuracy is
balanced across gender for how hairstyles occlude the face, the initially
observed gender gap in accuracy largely disappears. We show this result for two
different matchers, and analyzing images of Caucasians and of
African-Americans. These results suggest that future research on demographic
variation in accuracy should include a check for balanced quality of the test
data as part of the problem formulation. To promote reproducible research,
matchers, attribute classifiers, and datasets used in this research are/will be
publicly available.
- Abstract(参考訳): 顔認識精度に「性差」があることは広く受け入れられており、女性は偽の一致率と偽の非一致率が高い。
しかし、この性差の原因については比較的知られていない。
人口統計効果に関する最近のnistレポートでさえ、"analyze cause and effect"を"what we didn not do"としてリストアップしている。
まず,男女の髪型には顔認識精度に影響を及ぼす重要な違いがあることを示す。
特に、雄の顔の毛は、雌と比較して、雄の顔の外観に平均的な違いをもたらす。
次に,認識精度を推定するために使用されるデータが性別間でバランスをとることによって,髪型が顔にどのような影響をもたらすかを示す。
この結果を2つの異なるマッチングで示し、白人とアフリカ系アメリカ人のイメージを分析した。
これらの結果から,今後の精度の変動に関する研究には,問題の定式化の一環として,テストデータのバランスの取れた品質のチェックを含めるべきであることが示唆された。
再現可能な研究を促進するため、この研究で使用されるマッチング、属性分類器、データセットは、一般に利用可能である。
関連論文リスト
- Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Gendered Differences in Face Recognition Accuracy Explained by
Hairstyles, Makeup, and Facial Morphology [11.50297186426025]
女性には顔認識精度が低いという研究文献に合意がある。
テスト画像中の可視面の等しい量の制御は、女性にとって明らかに高い偽非一致率を緩和する。
さらなる分析により、化粧バランスの取れたデータセットは女性をさらに改善し、偽の非マッチ率を低くすることが示された。
論文 参考訳(メタデータ) (2021-12-29T17:07:33Z) - Comparing Human and Machine Bias in Face Recognition [46.170389064229354]
我々はLFWとCelebAデータセットの改良版をリリースし、将来の研究者がアルゴリズムバイアスの測定値を得ることができるようにした。
また、これらの新しいデータを使って、顔認証と検証に関する一連の挑戦的な質問も開発しています。
検証作業において,コンピュータモデルと人的調査参加者の双方が有意に優れていたことが判明した。
論文 参考訳(メタデータ) (2021-10-15T22:26:20Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Understanding Fairness of Gender Classification Algorithms Across
Gender-Race Groups [0.8594140167290097]
本研究の目的は,性別・人種間の性別分類アルゴリズムの差分性能について検討することである。
すべてのアルゴリズムにおいて、黒人女性(一般には黒人人種)は最小の精度で常に取得した。
中東の男性とラテン系の女性は、ほとんどの場合より高い精度で取得した。
論文 参考訳(メタデータ) (2020-09-24T04:56:10Z) - Is Face Recognition Sexist? No, Gendered Hairstyles and Biology Are [10.727923887885398]
本研究は,女性における顔認識精度の低下の主な原因を明らかにするための最初の実験的分析である。
テスト画像中の同じ量の可視顔を制御することは、女性にとって明らかに高い偽非一致率を逆転させる。
また、主成分分析では、2つの異なる雌のイメージが2つの異なる雄のイメージと本質的に類似していることが示されている。
論文 参考訳(メタデータ) (2020-08-16T20:29:05Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Towards Gender-Neutral Face Descriptors for Mitigating Bias in Face
Recognition [51.856693288834975]
最先端のディープネットワークは、顔認識のために訓練されている間、性別情報を暗黙的にエンコードする。
ジェンダーは顔を識別する上で重要な属性と見なされることが多い。
本稿では,顔ディスクリプタに存在する性別情報を減らすために,新たにAGENDA(Adversarial Gender De-biasing Algorithm)を提案する。
論文 参考訳(メタデータ) (2020-06-14T08:54:03Z) - Analysis of Gender Inequality In Face Recognition Accuracy [11.6168015920729]
以上の結果から,(1) 類似度が高い女性に対して,(1) 類似度が高い女性に対して,(2) 類似度が高い女性に対して,(2) 類似度が高い女性に対して,詐欺師の分布は,女性の精度が低下していることが示唆された。
この現象は、アフリカ系アメリカ人、コーカサス系、アジア系の女性の顔のデータセットに共通している。
論文 参考訳(メタデータ) (2020-01-31T21:32:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。