論文の概要: Breaking the Global North Stereotype: A Global South-centric Benchmark Dataset for Auditing and Mitigating Biases in Facial Recognition Systems
- arxiv url: http://arxiv.org/abs/2407.15810v1
- Date: Mon, 22 Jul 2024 17:22:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 13:51:10.715943
- Title: Breaking the Global North Stereotype: A Global South-centric Benchmark Dataset for Auditing and Mitigating Biases in Facial Recognition Systems
- Title(参考訳): グローバル・ノースステレオタイプを打破する: 顔認識システムにおけるバイアスの監査と軽減のためのグローバル・サウス中心ベンチマークデータセット
- Authors: Siddharth D Jaiswal, Animesh Ganai, Abhisek Dash, Saptarshi Ghosh, Animesh Mukherjee,
- Abstract要約: 本研究では,世界8カ国の男女6,579名からなる顔データセットを提案する。
データセットの50%以上がグローバル・サウス諸国の個人であり、人口統計学的に多様である。
敵対的監査と堅牢なモデルトレーニングを支援するため、各画像は4つの敵的変種を持ち、合計4万枚以上の画像がある。
- 参考スコア(独自算出の注目度): 7.790132091010725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial Recognition Systems (FRSs) are being developed and deployed globally at unprecedented rates. Most platforms are designed in a limited set of countries but deployed in worldwide, without adequate checkpoints. This is especially problematic for Global South countries which lack strong legislation to safeguard persons facing disparate performance of these systems. A combination of unavailability of datasets, lack of understanding of FRS functionality and low-resource bias mitigation measures accentuate the problem. In this work, we propose a new face dataset composed of 6,579 unique male and female sportspersons from eight countries around the world. More than 50% of the dataset comprises individuals from the Global South countries and is demographically diverse. To aid adversarial audits and robust model training, each image has four adversarial variants, totaling over 40,000 images. We also benchmark five popular FRSs, both commercial and open-source, for the task of gender prediction (and country prediction for one of the open-source models as an example of red-teaming). Experiments on industrial FRSs reveal accuracies ranging from 98.2%--38.1%, with a large disparity between males and females in the Global South (max difference of 38.5%). Biases are also observed in all FRSs between females of the Global North and South (max difference of ~50%). Grad-CAM analysis identifies the nose, forehead and mouth as the regions of interest on one of the open-source FRSs. Utilizing this insight, we design simple, low-resource bias mitigation solutions using few-shot and novel contrastive learning techniques significantly improving the accuracy with disparity between males and females reducing from 50% to 1.5% in one of the settings. In the red-teaming experiment with the open-source Deepface model, contrastive learning proves more effective than simple fine-tuning.
- Abstract(参考訳): 顔認識システム(FRS)は、前例のない速度で世界中で開発・展開されている。
ほとんどのプラットフォームは限られた国で設計されているが、適切なチェックポイントなしで世界中で展開されている。
これは、これらのシステムの異なるパフォーマンスに直面している人々を保護するための強力な法律が欠如しているグローバル・サウス諸国にとって特に問題となる。
データセットの可用性の欠如、FRS機能の理解の欠如、低リソースバイアス緩和対策の組み合わせによって、この問題は強調される。
本研究では,世界8カ国の男性6,579人,女性6,579人からなる顔データセットを提案する。
データセットの50%以上がグローバル・サウス諸国の個人であり、人口統計学的に多様である。
敵対的監査と堅牢なモデルトレーニングを支援するため、各画像は4つの敵的変種を持ち、合計4万枚以上の画像がある。
また、性別予測(レッドチーム化の例として、オープンソースモデルの1つに対する国別予測)のタスクのために、商用およびオープンソースの両方で人気のある5つのFRSをベンチマークします。
工業用FRSの実験では98.2%から38.1%の範囲で、男性と女性の間には大きな差異がある(最大差38.5%)。
また、グローバル・ノースとサウス(最大50%の差)のすべてのFRSでもビアーゼが観察されている。
Grad-CAM分析は、鼻、額、口をオープンソースFRSの1つの領域として同定する。
この知見を生かして, 男女の差異を50%から1.5%に減らし, 精度を著しく向上させ, 少ないショットと新しいコントラスト学習技術を用いて, 簡便で低リソースなバイアス軽減ソリューションを設計した。
オープンソースのDeepfaceモデルによるレッドチーム実験では、コントラスト学習は単純な微調整よりも効果的であることが証明されている。
関連論文リスト
- GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Mask-up: Investigating Biases in Face Re-identification for Masked Faces [7.73812434373948]
顔認識システム(FRS)は現在、世界中に分散し、MLソリューションとしてデプロイされている。
これらのシステムでは、過激な偏見が限界化グループに対して報告されており、高い差別的結果をもたらしている。
この研究は、開発者、議員、そしてそのようなサービスの利用者が、FRSの背後にある設計原則を再考する必要があることを示している。
論文 参考訳(メタデータ) (2024-02-21T12:48:45Z) - Towards Fair Face Verification: An In-depth Analysis of Demographic
Biases [11.191375513738361]
近年,深層学習に基づく人物識別・検証システムは,精度の面で著しく向上している。
しかし、このようなシステムは人種、年齢、性別に関する重大な偏見を呈している。
本稿では,これらの要因の交叉性に着目した詳細な分析を行う。
論文 参考訳(メタデータ) (2023-07-19T14:49:14Z) - Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z) - Face Recognition: Too Bias, or Not Too Bias? [45.404162391012726]
我々は、最先端の顔認識システムにおけるバイアスの問題に対する批判的な洞察を明らかにする。
異なるサブグループにまたがる対面対の最適スコアしきい値の変動を示す。
また、人間の知覚にそのようなバイアスが存在するという仮説を支持する、人間のバイアスを測定するために、人間の評価を行う。
論文 参考訳(メタデータ) (2020-02-16T01:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。