論文の概要: Review of Demographic Bias in Face Recognition
- arxiv url: http://arxiv.org/abs/2502.02309v1
- Date: Tue, 04 Feb 2025 13:28:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:00:48.856865
- Title: Review of Demographic Bias in Face Recognition
- Title(参考訳): 顔認識におけるデモグラフィックバイアスの概観
- Authors: Ketan Kotwal, Sebastien Marcel,
- Abstract要約: 本稿では、FRにおける多面的偏見の側面を包括的に概観した研究成果をまとめる。
FRにおける人口格差に関連する主な原因,データセット,評価指標,緩和手法について検討した。
本稿は、研究者に対して、同等で信頼性の高いFRシステムに対する重要なニーズを強調しつつ、最先端技術に対する統一的な視点を提供することを目的とする。
- 参考スコア(独自算出の注目度): 2.7624021966289605
- License:
- Abstract: Demographic bias in face recognition (FR) has emerged as a critical area of research, given its impact on fairness, equity, and reliability across diverse applications. As FR technologies are increasingly deployed globally, disparities in performance across demographic groups -- such as race, ethnicity, and gender -- have garnered significant attention. These biases not only compromise the credibility of FR systems but also raise ethical concerns, especially when these technologies are employed in sensitive domains. This review consolidates extensive research efforts providing a comprehensive overview of the multifaceted aspects of demographic bias in FR. We systematically examine the primary causes, datasets, assessment metrics, and mitigation approaches associated with demographic disparities in FR. By categorizing key contributions in these areas, this work provides a structured approach to understanding and addressing the complexity of this issue. Finally, we highlight current advancements and identify emerging challenges that need further investigation. This article aims to provide researchers with a unified perspective on the state-of-the-art while emphasizing the critical need for equitable and trustworthy FR systems.
- Abstract(参考訳): 顔認識(FR)におけるデモグラフィックバイアスは、様々なアプリケーションにおける公正性、公平性、信頼性に影響を及ぼすため、研究の重要領域として浮上している。
FR技術がグローバルに展開されるにつれて、人種、民族、性別など、人口集団間のパフォーマンスの格差が顕著な注目を集めている。
これらのバイアスはFRシステムの信頼性を損なうだけでなく、特に機密ドメインでこれらの技術が使用される場合に倫理的懸念を引き起こす。
本総説は、FRにおける多面的人口バイアスの側面を包括的に概観する広範な研究成果をまとめるものである。
FRにおける人口格差に関連する主な原因,データセット,評価指標,緩和手法を系統的に検討した。
これらの領域における重要な貢献を分類することで、この問題の複雑さを理解し、対処するための構造化されたアプローチを提供する。
最後に、現在の進歩を強調し、さらなる調査を必要とする新たな課題を特定します。
本稿は、研究者に対して、同等で信頼性の高いFRシステムに対する重要なニーズを強調しつつ、最先端技術に対する統一的な視点を提供することを目的とする。
関連論文リスト
- Optimisation Strategies for Ensuring Fairness in Machine Learning: With and Without Demographics [4.662958544712181]
本稿では,機械学習フェアネスにおけるオープンな問題に対処するための2つの形式的枠組みを紹介する。
あるフレームワークでは、オペレータ値の最適化とmin-maxの目的が時系列問題の不正性に対処するために使用される。
第2のフレームワークでは、一般的に使用されるデータセットにおいて、性別や人種などのセンシティブな属性を欠くという課題に対処する。
論文 参考訳(メタデータ) (2024-11-13T22:29:23Z) - A Survey on Group Fairness in Federated Learning: Challenges, Taxonomy of Solutions and Directions for Future Research [5.08731160761218]
機械学習におけるグループフェアネスは、異なるグループ間で平等な結果を達成することに焦点を当てた研究の重要領域である。
フェデレーション学習は、クライアント間の不均一なデータ分散による公平性の必要性を増幅する。
連合学習におけるグループフェアネスの総合的な調査は行われていない。
データパーティショニング、ロケーション、適用戦略といった重要な基準に基づいて、これらのアプローチの新しい分類法を作成します。
論文 参考訳(メタデータ) (2024-10-04T18:39:28Z) - Quantifying the Cross-sectoral Intersecting Discrepancies within Multiple Groups Using Latent Class Analysis Towards Fairness [6.683051393349788]
本研究は,クロスセクタ間差分を定量化するための革新的アプローチを導入する。
プロプライエタリなデータセットとパブリックなデータセットの両方を使用して、私たちのアプローチを検証する。
我々の発見は、少数民族間の大きな相違が明らかとなり、現実世界のAIアプリケーションにおいて標的となる介入の必要性が浮かび上がっている。
論文 参考訳(メタデータ) (2024-05-24T08:10:31Z) - Towards Fair Face Verification: An In-depth Analysis of Demographic
Biases [11.191375513738361]
近年,深層学習に基づく人物識別・検証システムは,精度の面で著しく向上している。
しかし、このようなシステムは人種、年齢、性別に関する重大な偏見を呈している。
本稿では,これらの要因の交叉性に着目した詳細な分析を行う。
論文 参考訳(メタデータ) (2023-07-19T14:49:14Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - A Deep Dive into Dataset Imbalance and Bias in Face Identification [49.210042420757894]
メディアの描写は、自動顔認識システムにおけるバイアスの主な原因として、しばしば不均衡を浮き彫りにする。
FRにおけるデータ不均衡に関するこれまでの研究は、顔認証の設定にのみ焦点をあててきた。
この研究は、顔の識別における各種類の不均衡の影響を徹底的に調査し、この設定におけるバイアスに影響を与える他の要因について議論する。
論文 参考訳(メタデータ) (2022-03-15T20:23:13Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。