論文の概要: A Deep Dive into Dataset Imbalance and Bias in Face Identification
- arxiv url: http://arxiv.org/abs/2203.08235v1
- Date: Tue, 15 Mar 2022 20:23:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 14:20:14.285839
- Title: A Deep Dive into Dataset Imbalance and Bias in Face Identification
- Title(参考訳): 顔識別におけるデータセットの不均衡とバイアスの深化
- Authors: Valeriia Cherepanova, Steven Reich, Samuel Dooley, Hossein Souri,
Micah Goldblum, Tom Goldstein
- Abstract要約: メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
- 参考スコア(独自算出の注目度): 49.210042420757894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the deployment of automated face recognition (FR) systems proliferates,
bias in these systems is not just an academic question, but a matter of public
concern. Media portrayals often center imbalance as the main source of bias,
i.e., that FR models perform worse on images of non-white people or women
because these demographic groups are underrepresented in training data. Recent
academic research paints a more nuanced picture of this relationship. However,
previous studies of data imbalance in FR have focused exclusively on the face
verification setting, while the face identification setting has been largely
ignored, despite being deployed in sensitive applications such as law
enforcement. This is an unfortunate omission, as 'imbalance' is a more complex
matter in identification; imbalance may arise in not only the training data,
but also the testing data, and furthermore may affect the proportion of
identities belonging to each demographic group or the number of images
belonging to each identity. In this work, we address this gap in the research
by thoroughly exploring the effects of each kind of imbalance possible in face
identification, and discuss other factors which may impact bias in this
setting.
- Abstract(参考訳): 自動顔認識(FR)システムが普及するにつれて、これらのシステムのバイアスは単なる学術的な問題ではなく、公衆の懸念事項である。
メディアの描写はしばしば偏見の主源として不均衡を重んじることが多く、すなわち、FRモデルが非白人や女性のイメージに悪影響を及ぼす。
最近の学術研究は、この関係をより微妙な図を描いている。
しかし、FRにおけるデータ不均衡に関するこれまでの研究は、顔認証設定にのみ焦点を合わせてきたが、顔識別設定は法執行機関のような敏感なアプリケーションにデプロイされているにもかかわらず、ほとんど無視されてきた。
これは「不均衡」は識別においてより複雑な問題であり、トレーニングデータだけでなく、テストデータにも不均衡が生じ、さらに、各人口集団に属するアイデンティティの割合や各アイデンティティに属する画像の数に影響を及ぼす可能性があるため、不幸な欠落である。
本研究は、顔の識別における各種類の不均衡の影響を徹底的に調べ、この設定におけるバイアスに影響を及ぼす他の要因について議論することによって、研究におけるこのギャップに対処する。
関連論文リスト
- What Should Be Balanced in a "Balanced" Face Recognition Dataset? [8.820019122897154]
顔認識アルゴリズムの精度を評価するために、様々な顔画像データセットが「フェア」または「バランス」として提案されている。
評価データセットにおけるアイデンティティの数と画像が、1対1の顔マッチング精度の要因ではないことに注意する必要がある。
本稿では,本論文で言及した因子とバランスの取れたクロスデデマトグラフィー評価データセットの作成を容易にするバイアス対応ツールキットを提案する。
論文 参考訳(メタデータ) (2023-04-17T22:02:03Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Comparing Human and Machine Bias in Face Recognition [46.170389064229354]
我々はLFWとCelebAデータセットの改良版をリリースし、将来の研究者がアルゴリズムバイアスの測定値を得ることができるようにした。
また、これらの新しいデータを使って、顔認証と検証に関する一連の挑戦的な質問も開発しています。
検証作業において,コンピュータモデルと人的調査参加者の双方が有意に優れていたことが判明した。
論文 参考訳(メタデータ) (2021-10-15T22:26:20Z) - Robustness Disparities in Commercial Face Detection [72.25318723264215]
私たちは、Amazon Rekognition、Microsoft Azure、Google Cloud Platformの3つのシステムの堅牢性に関する、この種の詳細なベンチマークを初めて提示します。
一般的には、年齢、男性像、肌型、薄暗い色合いの人物の写真は、他のアイデンティティーの人物よりも、エラーの影響を受けやすいことが分かりました。
論文 参考訳(メタデータ) (2021-08-27T21:37:16Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Asymmetric Rejection Loss for Fairer Face Recognition [1.52292571922932]
訓練データセットの人種的不均衡により、異なる民族集団間での顔認識性能の違いが示されている。
これは実際には、顔のデータセットが通常収集されるセロブドムにおける非コーカサス民族集団の下位表現にシンプトマティックである。
本研究は,非表示群をフル活用することを目的とした非対称リジェクションロスを提案する。
論文 参考訳(メタデータ) (2020-02-09T04:01:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。