論文の概要: Comparing Human and Machine Bias in Face Recognition
- arxiv url: http://arxiv.org/abs/2110.08396v1
- Date: Fri, 15 Oct 2021 22:26:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 13:25:40.175971
- Title: Comparing Human and Machine Bias in Face Recognition
- Title(参考訳): 顔認識における人間と機械バイアスの比較
- Authors: Samuel Dooley, Ryan Downing, George Wei, Nathan Shankar, Bradon
Thymes, Gudrun Thorkelsdottir, Tiye Kurtz-Miott, Rachel Mattson, Olufemi
Obiwumi, Valeriia Cherepanova, Micah Goldblum, John P Dickerson, Tom
Goldstein
- Abstract要約: 我々はLFWとCelebAデータセットの改良版をリリースし、将来の研究者がアルゴリズムバイアスの測定値を得ることができるようにした。
また、これらの新しいデータを使って、顔認証と検証に関する一連の挑戦的な質問も開発しています。
検証作業において,コンピュータモデルと人的調査参加者の双方が有意に優れていたことが判明した。
- 参考スコア(独自算出の注目度): 46.170389064229354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Much recent research has uncovered and discussed serious concerns of bias in
facial analysis technologies, finding performance disparities between groups of
people based on perceived gender, skin type, lighting condition, etc. These
audits are immensely important and successful at measuring algorithmic bias but
have two major challenges: the audits (1) use facial recognition datasets which
lack quality metadata, like LFW and CelebA, and (2) do not compare their
observed algorithmic bias to the biases of their human alternatives. In this
paper, we release improvements to the LFW and CelebA datasets which will enable
future researchers to obtain measurements of algorithmic bias that are not
tainted by major flaws in the dataset (e.g. identical images appearing in both
the gallery and test set). We also use these new data to develop a series of
challenging facial identification and verification questions that we
administered to various algorithms and a large, balanced sample of human
reviewers. We find that both computer models and human survey participants
perform significantly better at the verification task, generally obtain lower
accuracy rates on dark-skinned or female subjects for both tasks, and obtain
higher accuracy rates when their demographics match that of the question.
Computer models are observed to achieve a higher level of accuracy than the
survey participants on both tasks and exhibit bias to similar degrees as the
human survey participants.
- Abstract(参考訳): 近年の研究では、顔分析技術におけるバイアスの深刻な懸念が指摘され、性別、肌の種類、照明条件などに基づく集団間のパフォーマンス格差が指摘されている。
これらの監査はアルゴリズムバイアスの測定に非常に重要かつ成功したが、2つの大きな課題がある。(1)監査はlfwやcelebaのような品質メタデータを欠いた顔認識データセットを使用し、(2)観察されたアルゴリズムバイアスを人間の代替品のバイアスと比較しない。
本稿では,LFWデータセットとCelebAデータセットの改良版を公開し,将来の研究者がデータセットの大きな欠陥(ギャラリーとテストセットの両方に同一の画像が現れるなど)の影響を受けないアルゴリズムバイアスの測定値を得ることを可能にする。
また、これらの新しいデータを使って、さまざまなアルゴリズムや人間レビュアーの大きなバランスの取れたサンプルに対して、顔の識別と検証に挑戦する一連の質問を作成した。
その結果,コンピュータモデルと人体調査の被験者はともに検証作業において有意に成績が良く,暗黒肌の被験者や女性の被験者の両タスクの正確度が低く,質問の年齢層と一致した場合に高い精度が得られることがわかった。
コンピュータモデルは、両方の課題における調査参加者よりも高い精度を達成し、人間の調査参加者と同様のバイアスを示す。
関連論文リスト
- Improving Bias in Facial Attribute Classification: A Combined Impact of KL Divergence induced Loss Function and Dual Attention [3.5527561584422465]
初期のシステムは、特に性別や人種の分類において、しばしば人口統計上の偏見を示しており、肌の色合いが暗い女性や個人の精度は低かった。
本稿では,KL分割正規化とクロスエントロピー損失関数によって強化された,事前学習型Inception-ResNet V1モデルを用いた二重注意機構を用いた手法を提案する。
実験の結果,公正度と分類精度の両面で有意な改善が見られ,偏見に対処し,顔認識システムの信頼性を高めることが期待できる。
論文 参考訳(メタデータ) (2024-10-15T01:29:09Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Assessing Demographic Bias Transfer from Dataset to Model: A Case Study
in Facial Expression Recognition [1.5340540198612824]
2つのメトリクスはデータセットの表現バイアスとステレオタイプバイアスに焦点をあて、もう1つはトレーニングされたモデルの残差バイアスに焦点を当てている。
本稿では、一般的なAffectnetデータセットに基づくFER問題に適用することで、メトリクスの有用性を示す。
論文 参考訳(メタデータ) (2022-05-20T09:40:42Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z) - Face Quality Estimation and Its Correlation to Demographic and
Non-Demographic Bias in Face Recognition [15.431761867166]
顔の質評価は、認識のための顔画像の有用性を推定することを目的としている。
現在、これらの顔認識システムの高性能化には、人口統計学や非人口統計学のサブグループに対する強い偏見のコストが伴っている。
近年の研究では、顔品質評価アルゴリズムは、高精度でロバストな品質評価を実現するために、デプロイされた顔認識システムに適応すべきであることが示されている。
論文 参考訳(メタデータ) (2020-04-02T14:19:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。