論文の概要: Robustness Disparities in Commercial Face Detection
- arxiv url: http://arxiv.org/abs/2108.12508v1
- Date: Fri, 27 Aug 2021 21:37:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 15:04:16.220556
- Title: Robustness Disparities in Commercial Face Detection
- Title(参考訳): 商用顔検出におけるロバスト性差
- Authors: Samuel Dooley and Tom Goldstein and John P. Dickerson
- Abstract要約: 私たちは、Amazon Rekognition、Microsoft Azure、Google Cloud Platformの3つのシステムの堅牢性に関する、この種の詳細なベンチマークを初めて提示します。
一般的には、年齢、男性像、肌型、薄暗い色合いの人物の写真は、他のアイデンティティーの人物よりも、エラーの影響を受けやすいことが分かりました。
- 参考スコア(独自算出の注目度): 72.25318723264215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial detection and analysis systems have been deployed by large companies
and critiqued by scholars and activists for the past decade. Critiques that
focus on system performance analyze disparity of the system's output, i.e., how
frequently is a face detected for different Fitzpatrick skin types or perceived
genders. However, we focus on the robustness of these system outputs under
noisy natural perturbations. We present the first of its kind detailed
benchmark of the robustness of three such systems: Amazon Rekognition,
Microsoft Azure, and Google Cloud Platform. We use both standard and recently
released academic facial datasets to quantitatively analyze trends in
robustness for each. Across all the datasets and systems, we generally find
that photos of individuals who are older, masculine presenting, of darker skin
type, or have dim lighting are more susceptible to errors than their
counterparts in other identities.
- Abstract(参考訳): 顔認識と分析システムは大企業によって導入され、過去10年間、学者や活動家によって批判されてきた。
システムパフォーマンスに焦点を当てた批判は、システムの出力の不一致、すなわち、異なるフィッツパトリックの皮膚タイプや知覚された性別で検出される顔の頻度を分析します。
しかし, 自然摂動条件下でのこれらのシステム出力の頑健さに着目する。
私たちは、Amazon Rekognition、Microsoft Azure、Google Cloud Platformの3つのシステムの堅牢性に関する、この種の詳細なベンチマークを初めて提示します。
我々は、標準と最近リリースされた学術的な顔データセットの両方を用いて、それぞれの堅牢性の傾向を定量的に分析する。
データセットやシステム全体では、年齢、男性、肌のタイプ、薄暗い照明を持つ個人の写真は、他のアイデンティティよりもエラーの影響を受けやすいことが一般的です。
関連論文リスト
- Synthetic Counterfactual Faces [1.3062016289815055]
我々は、ターゲットとなる、対実的で高品質な合成顔データを構築するための生成AIフレームワークを構築します。
私たちのパイプラインには、顔認識システム感度評価や画像理解システムプローブなど、多くのユースケースがあります。
商用ビジョンモデルにおける顔生成パイプラインの有効性を示す。
論文 参考訳(メタデータ) (2024-07-18T22:22:49Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Robustness Disparities in Face Detection [64.71318433419636]
本稿では,その顔検出システムの詳細なベンチマークとして,商業モデルと学術モデルのノイズに対する頑健性について検討する。
すべてのデータセットやシステム全体で、$textitmasculineである個人の写真が$textitdarker skin type$$$、$textitdarker$、または$textitdim lighting$は、他のIDよりもエラーの影響を受けやすい。
論文 参考訳(メタデータ) (2022-11-29T05:22:47Z) - My Face My Choice: Privacy Enhancing Deepfakes for Social Media
Anonymization [4.725675279167593]
仮説的ソーシャルネットワークに3つの顔アクセスモデルを導入し、ユーザーが承認した写真にのみ現れる能力を持つ。
我々のアプローチは、現在のタグ付けシステムを廃止し、未承認の顔を定量的に異なるディープフェイクに置き換える。
その結果,7つのSOTA顔認識器を動作させることで,平均精度を61%削減できることがわかった。
論文 参考訳(メタデータ) (2022-11-02T17:58:20Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Evaluation of Human and Machine Face Detection using a Novel Distinctive
Human Appearance Dataset [0.76146285961466]
画像中の顔を検出する能力において,現在最先端の顔検出モデルを評価する。
評価結果から,顔検出アルゴリズムは多様な外観に適さないことが示された。
論文 参考訳(メタデータ) (2021-11-01T02:20:40Z) - GenderRobustness: Robustness of Gender Detection in Facial Recognition
Systems with variation in Image Properties [0.5330240017302619]
人工知能システムや、暗黙のバイアスを持つコンピュータビジョンのアルゴリズムに対する非難が増えている。
バイアスが存在すると言われるシステムの1つに顔認識システムがあり、性別、民族、肌の色、その他の顔の特徴に基づいて偏見が観察されている。
これらのシステムの開発者は、バイアスが最小限か理想的には存在しないものに維持されるようにします。
論文 参考訳(メタデータ) (2020-11-18T18:13:23Z) - On the Robustness of Face Recognition Algorithms Against Attacks and
Bias [78.68458616687634]
顔認識アルゴリズムは非常に高い認識性能を示しており、現実のアプリケーションに適していることを示唆している。
精度が向上したにもかかわらず、これらのアルゴリズムの攻撃や偏見に対する堅牢性は問題視されている。
本稿では,顔認識アルゴリズムの頑健性に挑戦する様々な方法について要約する。
論文 参考訳(メタデータ) (2020-02-07T18:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。