論文の概要: Understanding Fairness of Gender Classification Algorithms Across
Gender-Race Groups
- arxiv url: http://arxiv.org/abs/2009.11491v1
- Date: Thu, 24 Sep 2020 04:56:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 03:54:31.545091
- Title: Understanding Fairness of Gender Classification Algorithms Across
Gender-Race Groups
- Title(参考訳): ジェンダー・レイス集団におけるジェンダー分類アルゴリズムの妥当性の理解
- Authors: Anoop Krishnan, Ali Almadan, Ajita Rattani
- Abstract要約: 本研究の目的は,性別・人種間の性別分類アルゴリズムの差分性能について検討することである。
すべてのアルゴリズムにおいて、黒人女性(一般には黒人人種)は最小の精度で常に取得した。
中東の男性とラテン系の女性は、ほとんどの場合より高い精度で取得した。
- 参考スコア(独自算出の注目度): 0.8594140167290097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated gender classification has important applications in many domains,
such as demographic research, law enforcement, online advertising, as well as
human-computer interaction. Recent research has questioned the fairness of this
technology across gender and race. Specifically, the majority of the studies
raised the concern of higher error rates of the face-based gender
classification system for darker-skinned people like African-American and for
women. However, to date, the majority of existing studies were limited to
African-American and Caucasian only. The aim of this paper is to investigate
the differential performance of the gender classification algorithms across
gender-race groups. To this aim, we investigate the impact of (a) architectural
differences in the deep learning algorithms and (b) training set imbalance, as
a potential source of bias causing differential performance across gender and
race. Experimental investigations are conducted on two latest large-scale
publicly available facial attribute datasets, namely, UTKFace and FairFace. The
experimental results suggested that the algorithms with architectural
differences varied in performance with consistency towards specific gender-race
groups. For instance, for all the algorithms used, Black females (Black race in
general) always obtained the least accuracy rates. Middle Eastern males and
Latino females obtained higher accuracy rates most of the time. Training set
imbalance further widens the gap in the unequal accuracy rates across all
gender-race groups. Further investigations using facial landmarks suggested
that facial morphological differences due to the bone structure influenced by
genetic and environmental factors could be the cause of the least performance
of Black females and Black race, in general.
- Abstract(参考訳): 自動性別分類は、人口統計調査、法執行、オンライン広告、人間とコンピュータの相互作用など、多くの分野において重要な応用がある。
最近の研究では、性別や人種によってこの技術の公平性に疑問が呈されている。
特に、研究の大多数は、アフリカ系アメリカ人や女性のような浅黒い肌の人々の顔に基づく性別分類システムのエラー率が高いという懸念を提起した。
しかし、現存する研究の大半はアフリカ系アメリカ人と白人のみに限られていた。
本研究の目的は,性別・人種間の性別分類アルゴリズムの差分性能を検討することである。
この目的のために、我々は影響を調査する。
(a)ディープラーニングアルゴリズムのアーキテクチャ的差異と
b) トレーニングは、性別と人種間で異なるパフォーマンスを引き起こすバイアスの潜在的源として、不均衡を設定した。
大規模な公開可能な2つの顔属性データセット、すなわちUTKFaceとFairFaceに関する実験的調査が行われている。
実験結果から, 構造的差異のあるアルゴリズムは, 特定の性別分類群に対する一貫性とともに, 性能に差があることが示唆された。
例えば、すべてのアルゴリズムにおいて、黒人女性(一般に黒人人種)は、常に最も精度の低い割合を得た。
中東の男性とラテン系の女性は、ほとんどの場合より高い精度で取得した。
トレーニングセットの不均衡は、すべての性別と人種間の不平等な精度のギャップをさらに広げます。
顔のランドマークを用いたさらなる研究は、遺伝的および環境的要因の影響による顔面形態の違いが、一般的に黒人女性と黒人の成績の低下の原因であることが示唆された。
関連論文リスト
- GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Towards Fair Face Verification: An In-depth Analysis of Demographic
Biases [11.191375513738361]
近年,深層学習に基づく人物識別・検証システムは,精度の面で著しく向上している。
しかし、このようなシステムは人種、年齢、性別に関する重大な偏見を呈している。
本稿では,これらの要因の交叉性に着目した詳細な分析を行う。
論文 参考訳(メタデータ) (2023-07-19T14:49:14Z) - Deep Generative Views to Mitigate Gender Classification Bias Across
Gender-Race Groups [0.8594140167290097]
本稿では,性別・人種グループ間の偏見を低減し,分類精度を向上させるためのバイアス緩和戦略を提案する。
我々は、ジェンダー分類バイアスを軽減するために、生成的視点、構造化学習、そして明らかな学習の力を利用する。
論文 参考訳(メタデータ) (2022-08-17T16:23:35Z) - The Gender Gap in Face Recognition Accuracy Is a Hairy Problem [8.768049933358968]
まず、男女の髪型が顔の認識精度に影響を及ぼす重要な違いがあることを実証する。
そして、認識精度を推定するために使用されるデータが、髪型が顔を妨げるかによって性別間でバランスが取れている場合、当初観察された精度の男女差が大きく消失することを示した。
論文 参考訳(メタデータ) (2022-06-10T04:32:47Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - An Examination of Fairness of AI Models for Deepfake Detection [5.4852920337961235]
我々は保護されたサブグループ間のディープフェイクデータセットおよび検出モデルに存在するバイアスを評価する。
人種と性別のバランスをとる顔データセットを用いて,3つの一般的なディープフェイク検出器を調べ,人種間の予測性能に大きな差を見出した。
論文 参考訳(メタデータ) (2021-05-02T21:55:04Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Gender Classification and Bias Mitigation in Facial Images [7.438105108643341]
最近の研究では、バイアス付きベンチマークデータベースでトレーニングされたアルゴリズムがアルゴリズムバイアスをもたらす可能性があることが示されている。
顔認証と性別分類タスクのための既存のベンチマークデータベースについて調査を行った。
我々は、分類精度の向上と、拡張ベンチマークデータベースでトレーニングされたベースラインモデルにおけるアルゴリズムバイアスの軽減に取り組みました。
論文 参考訳(メタデータ) (2020-07-13T01:09:06Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。