論文の概要: Are Commercial Face Detection Models as Biased as Academic Models?
- arxiv url: http://arxiv.org/abs/2201.10047v2
- Date: Wed, 30 Nov 2022 02:14:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:27:47.440070
- Title: Are Commercial Face Detection Models as Biased as Academic Models?
- Title(参考訳): 商用顔検出モデルは学術モデルと同じくらい偏りがあるか?
- Authors: Samuel Dooley, George Z. Wei, Tom Goldstein, John P. Dickerson
- Abstract要約: 我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
- 参考スコア(独自算出の注目度): 64.71318433419636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As facial recognition systems are deployed more widely, scholars and
activists have studied their biases and harms. Audits are commonly used to
accomplish this and compare the algorithmic facial recognition systems'
performance against datasets with various metadata labels about the subjects of
the images. Seminal works have found discrepancies in performance by gender
expression, age, perceived race, skin type, etc. These studies and audits often
examine algorithms which fall into two categories: academic models or
commercial models. We present a detailed comparison between academic and
commercial face detection systems, specifically examining robustness to noise.
We find that state-of-the-art academic face detection models exhibit
demographic disparities in their noise robustness, specifically by having
statistically significant decreased performance on older individuals and those
who present their gender in a masculine manner. When we compare the size of
these disparities to that of commercial models, we conclude that commercial
models - in contrast to their relatively larger development budget and
industry-level fairness commitments - are always as biased or more biased than
an academic model.
- Abstract(参考訳): 顔認識システムがより広く展開されるにつれて、学者や活動家はバイアスや危害について研究してきた。
監査は、画像の被写体に関する様々なメタデータラベルを持つデータセットに対して、アルゴリズムによる顔認識システムのパフォーマンスを比較するために一般的に使用される。
セナルワークは、性別の表現、年齢、知覚された人種、皮膚の種類などによるパフォーマンスの相違を発見した。
これらの研究と監査は、しばしば学術モデルと商業モデルという2つのカテゴリに分類されるアルゴリズムを調査している。
本稿では学術的な顔検出システムと商業的な顔検出システムの比較について述べる。
最新の学術的顔検出モデルでは, 高齢者や男性的に性別を呈示する人に対して, 統計的に有意なパフォーマンス低下がみられ, 騒音のロバスト性に差があることが判明した。
これらの格差と商用モデルのサイズを比較すると、商業モデルは、比較的大きな開発予算と業界レベルの公正性のコミットメントとは対照的に、常に学術モデルよりも偏り、偏りがある、と結論付けます。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Bias and Diversity in Synthetic-based Face Recognition [12.408456748469426]
合成顔認証データセットの多様性が、真正なデータセットとどのように比較されるかを検討する。
性別、民族、年齢、地位の分布に注目します。
バイアスに関しては、合成ベースモデルが真ベースモデルと類似したバイアス挙動を持っていることが分かる。
論文 参考訳(メタデータ) (2023-11-07T13:12:34Z) - FACET: Fairness in Computer Vision Evaluation Benchmark [21.862644380063756]
コンピュータビジョンモデルは、性別や肌のトーンなどの属性間でパフォーマンスの相違が知られている。
FACET (FAirness in Computer Vision EvaluaTion) という新しいベンチマークを提案する。
FACETは、最も一般的な視覚タスクのための32kイメージの大規模な、一般公開された評価セットである。
論文 参考訳(メタデータ) (2023-08-31T17:59:48Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Explaining Bias in Deep Face Recognition via Image Characteristics [9.569575076277523]
2つのデータセットのセキュリティとユーザビリティの観点から,10種類の最先端の顔認識モデルを評価し,その妥当性を比較した。
次に,画像特性がモデル性能に与える影響を解析する。
論文 参考訳(メタデータ) (2022-08-23T17:18:23Z) - Comparing Human and Machine Bias in Face Recognition [46.170389064229354]
我々はLFWとCelebAデータセットの改良版をリリースし、将来の研究者がアルゴリズムバイアスの測定値を得ることができるようにした。
また、これらの新しいデータを使って、顔認証と検証に関する一連の挑戦的な質問も開発しています。
検証作業において,コンピュータモデルと人的調査参加者の双方が有意に優れていたことが判明した。
論文 参考訳(メタデータ) (2021-10-15T22:26:20Z) - Robustness Disparities in Commercial Face Detection [72.25318723264215]
私たちは、Amazon Rekognition、Microsoft Azure、Google Cloud Platformの3つのシステムの堅牢性に関する、この種の詳細なベンチマークを初めて提示します。
一般的には、年齢、男性像、肌型、薄暗い色合いの人物の写真は、他のアイデンティティーの人物よりも、エラーの影響を受けやすいことが分かりました。
論文 参考訳(メタデータ) (2021-08-27T21:37:16Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。