論文の概要: GenderRobustness: Robustness of Gender Detection in Facial Recognition
Systems with variation in Image Properties
- arxiv url: http://arxiv.org/abs/2011.10472v2
- Date: Thu, 26 Nov 2020 22:18:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 04:38:57.806985
- Title: GenderRobustness: Robustness of Gender Detection in Facial Recognition
Systems with variation in Image Properties
- Title(参考訳): 性別ロバスト性:画像特性の変動を伴う顔認識システムにおける性別検出のロバスト性
- Authors: Sharadha Srinivasan, Madan Musuvathi
- Abstract要約: 人工知能システムや、暗黙のバイアスを持つコンピュータビジョンのアルゴリズムに対する非難が増えている。
バイアスが存在すると言われるシステムの1つに顔認識システムがあり、性別、民族、肌の色、その他の顔の特徴に基づいて偏見が観察されている。
これらのシステムの開発者は、バイアスが最小限か理想的には存在しないものに維持されるようにします。
- 参考スコア(独自算出の注目度): 0.5330240017302619
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In recent times, there have been increasing accusations on artificial
intelligence systems and algorithms of computer vision of possessing implicit
biases. Even though these conversations are more prevalent now and systems are
improving by performing extensive testing and broadening their horizon, biases
still do exist. One such class of systems where bias is said to exist is facial
recognition systems, where bias has been observed on the basis of gender,
ethnicity, skin tone and other facial attributes. This is even more disturbing,
given the fact that these systems are used in practically every sector of the
industries today. From as critical as criminal identification to as simple as
getting your attendance registered, these systems have gained a huge market,
especially in recent years. That in itself is a good enough reason for
developers of these systems to ensure that the bias is kept to a bare minimum
or ideally non-existent, to avoid major issues like favoring a particular
gender, race, or class of people or rather making a class of people susceptible
to false accusations due to inability of these systems to correctly recognize
those people.
- Abstract(参考訳): 近年では、暗黙のバイアスを持つコンピュータビジョンの人工知能システムやアルゴリズムに対する非難が高まっている。
これらの会話が普及し、広範なテストを実行し、その地平線を広げることで、システムは改善していますが、まだバイアスがあります。
バイアスが存在すると言われるシステムの1つに顔認識システムがあり、性別、民族、肌の色、その他の顔の特徴に基づいて偏見が観察されている。
これらのシステムが現在の産業のあらゆる部門で使われているという事実を考えると、これはさらに厄介だ。
犯罪の特定と同じくらい重要なものから、出席者を登録するほど単純なものまで、これらのシステムは特に近年、巨大な市場を獲得している。
これらのシステムの開発者がバイアスを最小限あるいは理想的には存在しないものに保ち、特定の性別、人種、階級を選ばせることや、システムに正しく認識できないために偽の告発を受けやすくするといった大きな問題を避けるには、それ自体が十分な理由である。
関連論文リスト
- Lookism: The overlooked bias in computer vision [11.306732956100213]
ルックリズムはコンピュータビジョンでは探索されていないが、深い意味を持つ可能性がある。
本稿では,コンピュータビジョンモデルにおける重要なバイアスとして,ルックリズムの体系的研究を提唱する。
論文 参考訳(メタデータ) (2024-08-21T09:07:20Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Robustness Disparities in Face Detection [64.71318433419636]
本稿では,その顔検出システムの詳細なベンチマークとして,商業モデルと学術モデルのノイズに対する頑健性について検討する。
すべてのデータセットやシステム全体で、$textitmasculineである個人の写真が$textitdarker skin type$$$、$textitdarker$、または$textitdim lighting$は、他のIDよりもエラーの影響を受けやすい。
論文 参考訳(メタデータ) (2022-11-29T05:22:47Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Robustness Disparities in Commercial Face Detection [72.25318723264215]
私たちは、Amazon Rekognition、Microsoft Azure、Google Cloud Platformの3つのシステムの堅牢性に関する、この種の詳細なベンチマークを初めて提示します。
一般的には、年齢、男性像、肌型、薄暗い色合いの人物の写真は、他のアイデンティティーの人物よりも、エラーの影響を受けやすいことが分かりました。
論文 参考訳(メタデータ) (2021-08-27T21:37:16Z) - Biometrics: Trust, but Verify [49.9641823975828]
バイオメトリック認識は、世界中のさまざまなアプリケーションに爆発しました。
生体認証システムの様々なサブモジュールに関する多くの顕著な問題と懸念があります。
論文 参考訳(メタデータ) (2021-05-14T03:07:25Z) - Gender Slopes: Counterfactual Fairness for Computer Vision Models by
Attribute Manipulation [4.784524967912113]
自動コンピュータビジョンシステムは、セキュリティ、法執行機関、パーソナルデバイスを含む多くの領域に応用されている。
最近の報告は、これらのシステムが偏りのある結果をもたらし、特定の人口集団の人々を差別する可能性があることを示唆している。
本稿では,性別や人種によって異なる顔画像の合成のために,画像操作のために開発されたエンコーダデコーダネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-21T02:33:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。