論文の概要: Anatomizing Bias in Facial Analysis
- arxiv url: http://arxiv.org/abs/2112.06522v1
- Date: Mon, 13 Dec 2021 09:51:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 01:04:49.961475
- Title: Anatomizing Bias in Facial Analysis
- Title(参考訳): 顔分析におけるバイアスの解剖
- Authors: Richa Singh, Puspita Majumdar, Surbhi Mittal, Mayank Vatsa
- Abstract要約: 既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
- 参考スコア(独自算出の注目度): 86.79402670904338
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing facial analysis systems have been shown to yield biased results
against certain demographic subgroups. Due to its impact on society, it has
become imperative to ensure that these systems do not discriminate based on
gender, identity, or skin tone of individuals. This has led to research in the
identification and mitigation of bias in AI systems. In this paper, we
encapsulate bias detection/estimation and mitigation algorithms for facial
analysis. Our main contributions include a systematic review of algorithms
proposed for understanding bias, along with a taxonomy and extensive overview
of existing bias mitigation algorithms. We also discuss open challenges in the
field of biased facial analysis.
- Abstract(参考訳): 既存の顔分析システムは、特定の人口集団に対して偏りのある結果をもたらすことが示されている。
社会への影響により、これらのシステムが個人の性別、アイデンティティ、肌の色によって差別されないようにすることが必須になっている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
本稿では,顔分析のためのバイアス検出・推定・緩和アルゴリズムをカプセル化する。
我々の主な貢献は、バイアスを理解するために提案されたアルゴリズムの体系的レビューと、既存のバイアス緩和アルゴリズムの広範な概要を含む。
また,偏りのある顔分析の分野での課題についても考察する。
関連論文リスト
- Robustness Disparities in Face Detection [64.71318433419636]
本稿では,その顔検出システムの詳細なベンチマークとして,商業モデルと学術モデルのノイズに対する頑健性について検討する。
すべてのデータセットやシステム全体で、$textitmasculineである個人の写真が$textitdarker skin type$$$、$textitdarker$、または$textitdim lighting$は、他のIDよりもエラーの影響を受けやすい。
論文 参考訳(メタデータ) (2022-11-29T05:22:47Z) - Robustness Disparities in Commercial Face Detection [72.25318723264215]
私たちは、Amazon Rekognition、Microsoft Azure、Google Cloud Platformの3つのシステムの堅牢性に関する、この種の詳細なベンチマークを初めて提示します。
一般的には、年齢、男性像、肌型、薄暗い色合いの人物の写真は、他のアイデンティティーの人物よりも、エラーの影響を受けやすいことが分かりました。
論文 参考訳(メタデータ) (2021-08-27T21:37:16Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Assessing Risks of Biases in Cognitive Decision Support Systems [5.480546613836199]
この論文は、偏見の集合を管理する方法に関する挑戦的な研究課題に対処する。
本稿では,認知的意思決定支援システムの運用環境をバイアスの観点から予測する。
また,チェックポイントシステムの顔バイオメトリック成分を用いたモチベーション実験を行い,バイアスの集合の発見を強調した。
論文 参考訳(メタデータ) (2020-07-28T16:53:45Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z) - Demographic Bias: A Challenge for Fingervein Recognition Systems? [0.0]
多くの自動システムの基盤となるアルゴリズム(バイオメトリックスを含む)の潜在的なバイアスに関する懸念が高まっている。
偏見付きアルゴリズムは、性別や年齢などの特定の(しばしば差別防止法によって保護される)属性に基づいて、異なるグループの個人に対して統計的に異なる結果を生成する。
本稿では,フィンガーベイン認識の問題を確かめるために,いくつかの一般的な認識アルゴリズムをベンチマークした。
論文 参考訳(メタデータ) (2020-04-03T07:53:11Z) - Demographic Bias in Biometrics: A Survey on an Emerging Challenge [0.0]
生体計測システムは、人間の特定の生物学的または法医学的特性の特異性に依存している。
自動意思決定システムにおける体系的バイアスの存在に関して、公共および学術的な懸念の波が相次いだ。
論文 参考訳(メタデータ) (2020-03-05T09:07:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。