論文の概要: Does Face Recognition Error Echo Gender Classification Error?
- arxiv url: http://arxiv.org/abs/2104.13803v1
- Date: Wed, 28 Apr 2021 14:43:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 12:57:04.111984
- Title: Does Face Recognition Error Echo Gender Classification Error?
- Title(参考訳): 顔認識の誤りは性別分類の誤りか?
- Authors: Ying Qiu, V\'itor Albiero, Michael C. King, Kevin W. Bowyer
- Abstract要約: 3つの異なる性別分類アルゴリズムと2つの顔認識アルゴリズムから結果を分析する。
本研究では,1つの画像が性別分類誤差を伴っている場合,インポスタの分布が良好であることを示した。
実画像ペアの場合, 画像に正と誤の男女分類が混在している個人は, 真に分布が悪くなることが示唆された。
- 参考スコア(独自算出の注目度): 9.176056742068813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper is the first to explore the question of whether images that are
classified incorrectly by a face analytics algorithm (e.g., gender
classification) are any more or less likely to participate in an image pair
that results in a face recognition error. We analyze results from three
different gender classification algorithms (one open-source and two
commercial), and two face recognition algorithms (one open-source and one
commercial), on image sets representing four demographic groups
(African-American female and male, Caucasian female and male). For impostor
image pairs, our results show that pairs in which one image has a gender
classification error have a better impostor distribution than pairs in which
both images have correct gender classification, and so are less likely to
generate a false match error. For genuine image pairs, our results show that
individuals whose images have a mix of correct and incorrect gender
classification have a worse genuine distribution (increased false non-match
rate) compared to individuals whose images all have correct gender
classification. Thus, compared to images that generate correct gender
classification, images that generate gender classification errors do generate a
different pattern of recognition errors, both better (false match) and worse
(false non-match).
- Abstract(参考訳): 本論文は、顔認識アルゴリズム(例えば、性別分類)によって誤って分類された画像が、顔認識エラーをもたらす画像対に参加する確率が、多かれ少なかれ低いかどうかを調査する最初のものである。
3つの異なる性別分類アルゴリズム(1つのオープンソースと2つの商用)と2つの顔認識アルゴリズム(1つのオープンソースと1つの商用)から4つの人口集団(アフリカ系アメリカ人の女性と男性、白人女性と男性)を表す画像集合から結果を分析する。
インポスタ画像ペアでは, 同一画像が性別分類誤差を持つペアの方が, 両画像が正しい性別分類を持つペアよりも優れたインポスタ分布を持つため, 偽マッチング誤りが発生する可能性が低いことを示す。
実画像ペアの場合, 画像に正性分類と誤性分類が混在している個体は, 画像に正性分類がある個体に比べて, 真性分布(偽非一致率の増加)が悪くなることが示された。
したがって、正しい性別分類を生成する画像と比較して、性別分類誤差を生成する画像は、より良い(偽マッチング)と悪い(偽非マッチング)の両方の認識エラーパターンを生成する。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - The Gender Gap in Face Recognition Accuracy Is a Hairy Problem [8.768049933358968]
まず、男女の髪型が顔の認識精度に影響を及ぼす重要な違いがあることを実証する。
そして、認識精度を推定するために使用されるデータが、髪型が顔を妨げるかによって性別間でバランスが取れている場合、当初観察された精度の男女差が大きく消失することを示した。
論文 参考訳(メタデータ) (2022-06-10T04:32:47Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Gendered Differences in Face Recognition Accuracy Explained by
Hairstyles, Makeup, and Facial Morphology [11.50297186426025]
女性には顔認識精度が低いという研究文献に合意がある。
テスト画像中の可視面の等しい量の制御は、女性にとって明らかに高い偽非一致率を緩和する。
さらなる分析により、化粧バランスの取れたデータセットは女性をさらに改善し、偽の非マッチ率を低くすることが示された。
論文 参考訳(メタデータ) (2021-12-29T17:07:33Z) - Are Gender-Neutral Queries Really Gender-Neutral? Mitigating Gender Bias
in Image Search [8.730027941735804]
我々は、画像検索において、独特なジェンダーバイアスを研究する。
検索画像は、ジェンダーニュートラルな自然言語クエリに対して、しばしば性別不均衡である。
我々は2つの新しいデバイアスのアプローチを導入する。
論文 参考訳(メタデータ) (2021-09-12T04:47:33Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Is Face Recognition Sexist? No, Gendered Hairstyles and Biology Are [10.727923887885398]
本研究は,女性における顔認識精度の低下の主な原因を明らかにするための最初の実験的分析である。
テスト画像中の同じ量の可視顔を制御することは、女性にとって明らかに高い偽非一致率を逆転させる。
また、主成分分析では、2つの異なる雌のイメージが2つの異なる雄のイメージと本質的に類似していることが示されている。
論文 参考訳(メタデータ) (2020-08-16T20:29:05Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Towards Gender-Neutral Face Descriptors for Mitigating Bias in Face
Recognition [51.856693288834975]
最先端のディープネットワークは、顔認識のために訓練されている間、性別情報を暗黙的にエンコードする。
ジェンダーは顔を識別する上で重要な属性と見なされることが多い。
本稿では,顔ディスクリプタに存在する性別情報を減らすために,新たにAGENDA(Adversarial Gender De-biasing Algorithm)を提案する。
論文 参考訳(メタデータ) (2020-06-14T08:54:03Z) - Analysis of Gender Inequality In Face Recognition Accuracy [11.6168015920729]
以上の結果から,(1) 類似度が高い女性に対して,(1) 類似度が高い女性に対して,(2) 類似度が高い女性に対して,(2) 類似度が高い女性に対して,詐欺師の分布は,女性の精度が低下していることが示唆された。
この現象は、アフリカ系アメリカ人、コーカサス系、アジア系の女性の顔のデータセットに共通している。
論文 参考訳(メタデータ) (2020-01-31T21:32:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。