論文の概要: How Does Gender Balance In Training Data Affect Face Recognition
Accuracy?
- arxiv url: http://arxiv.org/abs/2002.02934v2
- Date: Mon, 6 Apr 2020 21:30:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 05:03:54.776433
- Title: How Does Gender Balance In Training Data Affect Face Recognition
Accuracy?
- Title(参考訳): トレーニングデータのジェンダーバランスは顔認識精度にどのように影響するか?
- Authors: V\'itor Albiero, Kai Zhang, and Kevin W. Bowyer
- Abstract要約: 女性に対する低い精度は、トレーニングデータにおける表現不足によって引き起こされると推測されることが多い。
本研究は,女子のトレーニングデータにおける表現不足が,テストデータにおける女性の精度低下の原因であることを示す。
- 参考スコア(独自算出の注目度): 12.362029427868206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning methods have greatly increased the accuracy of face
recognition, but an old problem still persists: accuracy is usually higher for
men than women. It is often speculated that lower accuracy for women is caused
by under-representation in the training data. This work investigates female
under-representation in the training data is truly the cause of lower accuracy
for females on test data. Using a state-of-the-art deep CNN, three different
loss functions, and two training datasets, we train each on seven subsets with
different male/female ratios, totaling forty two trainings, that are tested on
three different datasets. Results show that (1) gender balance in the training
data does not translate into gender balance in the test accuracy, (2) the
"gender gap" in test accuracy is not minimized by a gender-balanced training
set, but by a training set with more male images than female images, and (3)
training to minimize the accuracy gap does not result in highest female, male
or average accuracy
- Abstract(参考訳): ディープ・ラーニングの手法は顔認識の精度を大幅に向上させたが、古い問題は今も続いている。
女性に対する低い精度は、トレーニングデータの低表現によって引き起こされると推測されることが多い。
本研究は,女子のトレーニングデータにおける表現不足が,テストデータにおける女性の精度低下の原因であることを示す。
最先端の深層CNN、3つの損失関数、2つのトレーニングデータセットを使用して、私たちはそれぞれ異なる男性/女性比率の7つのサブセットでトレーニングし、合計40のトレーニングを3つの異なるデータセットでテストします。
その結果,(1)訓練データのジェンダーバランスは,テスト精度では性別バランスに変換されず,(2)テスト精度の「ジェンダーギャップ」は,性別バランストレーニングセットによっては最小化されず,女性画像よりも男性画像が多いトレーニングセットにより,(3)精度ギャップを最小化するためのトレーニングは,女性,男性,平均精度を最大にしないことがわかった。
関連論文リスト
- AI Gender Bias, Disparities, and Fairness: Does Training Data Matter? [3.509963616428399]
この研究は、人工知能(AI)におけるジェンダー問題に関する広範囲にわたる課題について考察する。
それは、6つの評価項目で男女1000人以上の学生の反応を分析する。
その結果,混合学習モデルのスコアリング精度は,男性モデルと女性モデルとでは有意な差があることが示唆された。
論文 参考訳(メタデータ) (2023-12-17T22:37:06Z) - Exploring the Impact of Training Data Distribution and Subword
Tokenization on Gender Bias in Machine Translation [19.719314005149883]
機械翻訳における性別バイアスに対するトークン化の効果について検討する。
職業名の女性および非ステレオタイプ性差は、サブワードトークンに分割される傾向にある。
その結果, 単語分割の分析は, トレーニングデータにおける性別形態の不均衡の予測に有効であることが示唆された。
論文 参考訳(メタデータ) (2023-09-21T21:21:55Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - Language Models Get a Gender Makeover: Mitigating Gender Bias with
Few-Shot Data Interventions [50.67412723291881]
事前訓練された大きな言語モデルに存在する社会的バイアスが重要な問題である。
我々は,事前学習モデルにおける性別バイアスを低減するために,データ介入戦略を強力かつ簡単な手法として提案する。
論文 参考訳(メタデータ) (2023-06-07T16:50:03Z) - The Gender Gap in Face Recognition Accuracy Is a Hairy Problem [8.768049933358968]
まず、男女の髪型が顔の認識精度に影響を及ぼす重要な違いがあることを実証する。
そして、認識精度を推定するために使用されるデータが、髪型が顔を妨げるかによって性別間でバランスが取れている場合、当初観察された精度の男女差が大きく消失することを示した。
論文 参考訳(メタデータ) (2022-06-10T04:32:47Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Gendered Differences in Face Recognition Accuracy Explained by
Hairstyles, Makeup, and Facial Morphology [11.50297186426025]
女性には顔認識精度が低いという研究文献に合意がある。
テスト画像中の可視面の等しい量の制御は、女性にとって明らかに高い偽非一致率を緩和する。
さらなる分析により、化粧バランスの取れたデータセットは女性をさらに改善し、偽の非マッチ率を低くすることが示された。
論文 参考訳(メタデータ) (2021-12-29T17:07:33Z) - Improving Gender Fairness of Pre-Trained Language Models without
Catastrophic Forgetting [88.83117372793737]
元のトレーニングデータに情報を埋め込むことは、モデルの下流のパフォーマンスを大きなマージンで損なう可能性がある。
本稿では,GEnder Equality Prompt(GEEP)を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:52:16Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Analysis of Gender Inequality In Face Recognition Accuracy [11.6168015920729]
以上の結果から,(1) 類似度が高い女性に対して,(1) 類似度が高い女性に対して,(2) 類似度が高い女性に対して,(2) 類似度が高い女性に対して,詐欺師の分布は,女性の精度が低下していることが示唆された。
この現象は、アフリカ系アメリカ人、コーカサス系、アジア系の女性の顔のデータセットに共通している。
論文 参考訳(メタデータ) (2020-01-31T21:32:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。