論文の概要: The Impact of Racial Distribution in Training Data on Face Recognition
Bias: A Closer Look
- arxiv url: http://arxiv.org/abs/2211.14498v1
- Date: Sat, 26 Nov 2022 07:03:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 16:27:12.849744
- Title: The Impact of Racial Distribution in Training Data on Face Recognition
Bias: A Closer Look
- Title(参考訳): 訓練データにおける顔面分布が顔認識バイアスに及ぼす影響:より近視的
- Authors: Manideep Kolla, Aravinth Savadamuthu
- Abstract要約: トレーニングデータにおける人種分布が顔認識モデルの性能に及ぼす影響について検討する。
精度メトリクス、クラスタリングメトリクス、UMAPプロジェクション、顔の品質、決定しきい値を用いて、これらのトレーニングされたモデルを解析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition algorithms, when used in the real world, can be very useful,
but they can also be dangerous when biased toward certain demographics. So, it
is essential to understand how these algorithms are trained and what factors
affect their accuracy and fairness to build better ones. In this study, we shed
some light on the effect of racial distribution in the training data on the
performance of face recognition models. We conduct 16 different experiments
with varying racial distributions of faces in the training data. We analyze
these trained models using accuracy metrics, clustering metrics, UMAP
projections, face quality, and decision thresholds. We show that a uniform
distribution of races in the training datasets alone does not guarantee
bias-free face recognition algorithms and how factors like face image quality
play a crucial role. We also study the correlation between the clustering
metrics and bias to understand whether clustering is a good indicator of bias.
Finally, we introduce a metric called racial gradation to study the inter and
intra race correlation in facial features and how they affect the learning
ability of the face recognition models. With this study, we try to bring more
understanding to an essential element of face recognition training, the data. A
better understanding of the impact of training data on the bias of face
recognition algorithms will aid in creating better datasets and, in turn,
better face recognition systems.
- Abstract(参考訳): 顔認識アルゴリズムは、現実世界で使われる場合、非常に有用であるが、特定の人口層に偏った場合にも危険である。
したがって、これらのアルゴリズムがどのように訓練され、より良いアルゴリズムを構築するための正確さと公平性に影響する要因を理解することが不可欠である。
本研究では,学習データにおける人種分布が顔認識モデルの性能に与える影響について光を当てた。
トレーニングデータにおける顔の人種分布の異なる16種類の実験を行った。
精度メトリクス、クラスタリングメトリクス、UMAPプロジェクション、顔の品質、決定しきい値を用いて、これらのトレーニングされたモデルを解析する。
トレーニングデータセットだけでのレースの均一な分布は、バイアスのない顔認識アルゴリズムを保証せず、顔画像の品質などの要因が重要な役割を果たすことを示す。
また、クラスタリングメトリクスとバイアスの相関について検討し、クラスタリングがバイアスのよい指標であるかどうかを理解する。
最後に、顔の特徴における人種間相関と人種内相関について検討し、それらが顔認識モデルの学習能力に与える影響について考察する。
本研究では,顔認識トレーニングの重要な要素であるデータに対する理解を深めようとしている。
トレーニングデータが顔認識アルゴリズムのバイアスに与える影響をよりよく理解することで、より優れたデータセットの作成と、さらに優れた顔認識システムの開発に役立ちます。
関連論文リスト
- FineFACE: Fair Facial Attribute Classification Leveraging Fine-grained Features [3.9440964696313485]
自動的な顔属性分類アルゴリズムでは、人口統計バイアスの存在が強調されている。
既存のバイアス緩和技術は、一般に人口統計学的なアノテーションを必要とし、しばしば公正性と正確性の間のトレードオフを得る。
そこで本稿では, 顔属性の公平な分類法を, きめ細かな分類問題とみなして提案する。
論文 参考訳(メタデータ) (2024-08-29T20:08:22Z) - Toward Fairer Face Recognition Datasets [69.04239222633795]
顔認識と検証は、ディープ表現の導入によってパフォーマンスが向上したコンピュータビジョンタスクである。
実際のトレーニングデータセットにおける顔データとバイアスのセンシティブな性格による倫理的、法的、技術的な課題は、彼らの開発を妨げる。
生成されたトレーニングデータセットに階層属性のバランス機構を導入することにより、公平性を促進する。
論文 参考訳(メタデータ) (2024-06-24T12:33:21Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Addressing Racial Bias in Facial Emotion Recognition [1.4896509623302834]
本研究は、人種分布の異なるサブサンプリングトレーニングセットによる人種バイアスの分析に焦点を当てた。
その結果,シミュレーションが人種的バランスに近づくにつれて,顔の小さいデータセットは公平さとパフォーマンスの指標の両方を改善することが示唆された。
顔の変動が大きい大きなデータセットでは、公正度指標は概して一定であり、人種的バランス自体が異なる人種グループ間でのテストパフォーマンスの同等性を達成するには不十分であることを示唆している。
論文 参考訳(メタデータ) (2023-08-09T03:03:35Z) - MixFairFace: Towards Ultimate Fairness via MixFair Adapter in Face
Recognition [37.756287362799945]
属性に基づくフェアネス尺度は顔認識には適さないと我々は主張する。
本稿では,異なるアプローチの公平性を評価するための新しい評価プロトコルを提案する。
私たちのMixFairFaceアプローチは、すべてのベンチマークデータセットで最先端のフェアネスパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-11-28T09:47:21Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - Learning Fair Face Representation With Progressive Cross Transformer [79.73754444296213]
フェアフェイス認識のためのプログレッシブクロストランス (PCT) 手法を提案する。
我々は,PCTが最先端FR性能を達成しつつ,顔認識におけるバイアスを軽減することができることを示した。
論文 参考訳(メタデータ) (2021-08-11T01:31:14Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - SensitiveLoss: Improving Accuracy and Fairness of Face Representations
with Discrimination-Aware Deep Learning [17.088716485755917]
偏見認識アルゴリズムの精度と公平性を改善するための識別認識学習法を提案する。
実験により、最もよく使われている顔データベースに基づく学習プロセスが、アルゴリズムによる識別の強い、一般的な訓練済みの深層顔モデルに繋がったことを示す。
提案手法は,事前学習ネットワークへのアドオンとして機能し,平均精度と公平性の観点から性能向上に有効である。
論文 参考訳(メタデータ) (2020-04-22T10:32:16Z) - Exploring Racial Bias within Face Recognition via per-subject
Adversarially-Enabled Data Augmentation [15.924281804465252]
本稿では,オブジェクト単位のデータセットバランスの実現を目的とした,新たな逆派生データ拡張手法を提案する。
我々の目的は、様々な人種領域にまたがる顔画像を変換することで、合成データセットを自動構築することである。
両面比較では,提案手法が(人種)少数集団の認識性能に与える影響が示唆された。
論文 参考訳(メタデータ) (2020-04-19T19:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。