論文の概要: Quantifying the Extent to Which Race and Gender Features Determine
Identity in Commercial Face Recognition Algorithms
- arxiv url: http://arxiv.org/abs/2010.07979v1
- Date: Thu, 15 Oct 2020 18:52:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 04:27:38.706542
- Title: Quantifying the Extent to Which Race and Gender Features Determine
Identity in Commercial Face Recognition Algorithms
- Title(参考訳): 商用顔認識アルゴリズムにおける人種・性別特徴の識別範囲の定量化
- Authors: John J. Howard, Yevgeniy B. Sirotin, Jerry L. Tipton, and Arun R.
Vemury
- Abstract要約: ブラックボックスの商用顔認識アルゴリズム(CFRA)は、性別と人種の特徴を使って識別する。
本研究は、性別と人種の特徴が、異なる人物間の顔認識類似度スコアに与える影響を定量化した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human face features can be used to determine individual identity as well as
demographic information like gender and race. However, the extent to which
black-box commercial face recognition algorithms (CFRAs) use gender and race
features to determine identity is poorly understood despite increasing
deployments by government and industry. In this study, we quantified the degree
to which gender and race features influenced face recognition similarity scores
between different people, i.e. non-mated scores. We ran this study using five
different CFRAs and a sample of 333 diverse test subjects. As a control, we
compared the behavior of these non-mated distributions to a commercial iris
recognition algorithm (CIRA). Confirming prior work, all CFRAs produced higher
similarity scores for people of the same gender and race, an effect known as
"broad homogeneity". No such effect was observed for the CIRA. Next, we applied
principal components analysis (PCA) to similarity score matrices. We show that
some principal components (PCs) of CFRAs cluster people by gender and race, but
the majority do not. Demographic clustering in the PCs accounted for only 10 %
of the total CFRA score variance. No clustering was observed for the CIRA. This
demonstrates that, although CFRAs use some gender and race features to
establish identity, most features utilized by current CFRAs are unrelated to
gender and race, similar to the iris texture patterns utilized by the CIRA.
Finally, reconstruction of similarity score matrices using only PCs that showed
no demographic clustering reduced broad homogeneity effects, but also decreased
the separation between mated and non-mated scores. This suggests it's possible
for CFRAs to operate on features unrelated to gender and race, albeit with
somewhat lower recognition accuracy, but that this is not the current
commercial practice.
- Abstract(参考訳): 人間の顔の特徴は、性別や人種などの人口統計情報だけでなく、個人のアイデンティティも決定できる。
しかし、ブラックボックスの商用顔認識アルゴリズム(cfras)が性別や人種の特徴を使ってアイデンティティを決定する程度は、政府や業界による展開の増加にもかかわらず、あまり理解されていない。
本研究では、性別と人種の特徴が、異なる人物間の顔認識類似度スコア、すなわち非距離スコアに与える影響を定量化した。
5種類のCFRAと333種類の被験者のサンプルを用いて本研究を行った。
制御として,これらの非機械分布の挙動を商用虹彩認識アルゴリズム(CIRA)と比較した。
以前の仕事を確認すると、全てのcfraは、同じ性別と人種の人々に高い類似度スコア("broad homogeneity")を生み出した。
CIRAにはそのような効果は見られなかった。
次に、類似度スコア行列に主成分分析(PCA)を適用した。
CFRAのいくつかの主要コンポーネント(PC)が、性別や人種によって人々をクラスタリングしているが、大多数はそうではない。
PCにおけるデモグラフィッククラスタリングはCFRAスコアのばらつきの10%に過ぎなかった。
CIRAにはクラスタリングは見られなかった。
これは、CFRAが性別や人種の特徴を利用してアイデンティティを確立するが、現在のCFRAで使われているほとんどの機能は、CIRAで使われているアイリステクスチャパターンと無関係であることを示している。
最後に, 集団クラスタリングを行わないPCを用いた類似度スコア行列の再構成により, 広い均一性効果が低下しただけでなく, 交配点と非交配点の分離も低下した。
これはCFRAが性別や人種とは無関係な機能で運用可能であることを示唆している。
関連論文リスト
- GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Towards Fair Face Verification: An In-depth Analysis of Demographic
Biases [11.191375513738361]
近年,深層学習に基づく人物識別・検証システムは,精度の面で著しく向上している。
しかし、このようなシステムは人種、年齢、性別に関する重大な偏見を呈している。
本稿では,これらの要因の交叉性に着目した詳細な分析を行う。
論文 参考訳(メタデータ) (2023-07-19T14:49:14Z) - Deep Generative Views to Mitigate Gender Classification Bias Across
Gender-Race Groups [0.8594140167290097]
本稿では,性別・人種グループ間の偏見を低減し,分類精度を向上させるためのバイアス緩和戦略を提案する。
我々は、ジェンダー分類バイアスを軽減するために、生成的視点、構造化学習、そして明らかな学習の力を利用する。
論文 参考訳(メタデータ) (2022-08-17T16:23:35Z) - Social Norm Bias: Residual Harms of Fairness-Aware Algorithms [21.50551404445654]
社会ノームバイアス (Social Norm Bias, SNoB) は、自動意思決定システムによって示される、微妙だが連続的な差別の一種である。
我々は、アルゴリズムの予測が性規範とどのように関連しているかを測定することでSNoBを定量化する。
後処理の介入は、この種のバイアスを全く軽減しないことを示す。
論文 参考訳(メタデータ) (2021-08-25T05:54:56Z) - Learning Fair Face Representation With Progressive Cross Transformer [79.73754444296213]
フェアフェイス認識のためのプログレッシブクロストランス (PCT) 手法を提案する。
我々は,PCTが最先端FR性能を達成しつつ,顔認識におけるバイアスを軽減することができることを示した。
論文 参考訳(メタデータ) (2021-08-11T01:31:14Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Feature Representation in Deep Metric Embeddings [0.0]
本研究は、顔(アイデンティティ)を識別するために訓練された埋め込みと、教師なしクラスタリングを用いて、顔の識別に関わる特徴を識別する。
クラス内のシナリオでは、推論プロセスは単一のアイデンティティの共通属性を区別し、それぞれ90.0%と76.0%の精度でひげとメガネを識別する。
このシステムは、特に99.3%、99.3%、94.1%の性別、肌の色、年齢で、高い精度で追加のサブ識別を行うことができる。
論文 参考訳(メタデータ) (2021-02-05T13:53:10Z) - One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision [75.82110684355979]
顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
論文 参考訳(メタデータ) (2021-02-03T22:50:04Z) - Understanding Fairness of Gender Classification Algorithms Across
Gender-Race Groups [0.8594140167290097]
本研究の目的は,性別・人種間の性別分類アルゴリズムの差分性能について検討することである。
すべてのアルゴリズムにおいて、黒人女性(一般には黒人人種)は最小の精度で常に取得した。
中東の男性とラテン系の女性は、ほとんどの場合より高い精度で取得した。
論文 参考訳(メタデータ) (2020-09-24T04:56:10Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。