論文の概要: Fairness Index Measures to Evaluate Bias in Biometric Recognition
- arxiv url: http://arxiv.org/abs/2306.10919v1
- Date: Mon, 19 Jun 2023 13:28:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 17:47:22.276001
- Title: Fairness Index Measures to Evaluate Bias in Biometric Recognition
- Title(参考訳): 生体認証におけるバイアス評価のための公平性指標
- Authors: Ketan Kotwal and Sebastien Marcel
- Abstract要約: 人口統計学的公正性の定量的評価は、生体計測応用における人口統計学的バイアスの理解、評価、緩和に向けた重要なステップである。
一般的な生体認証システムの人口統計学的公正性を評価するために,スコア分布の統計的特性に基づく複数の尺度を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The demographic disparity of biometric systems has led to serious concerns
regarding their societal impact as well as applicability of such systems in
private and public domains. A quantitative evaluation of demographic fairness
is an important step towards understanding, assessment, and mitigation of
demographic bias in biometric applications. While few, existing fairness
measures are based on post-decision data (such as verification accuracy) of
biometric systems, we discuss how pre-decision data (score distributions)
provide useful insights towards demographic fairness. In this paper, we
introduce multiple measures, based on the statistical characteristics of score
distributions, for the evaluation of demographic fairness of a generic
biometric verification system. We also propose different variants for each
fairness measure depending on how the contribution from constituent demographic
groups needs to be combined towards the final measure. In each case, the
behavior of the measure has been illustrated numerically and graphically on
synthetic data. The demographic imbalance in benchmarking datasets is often
overlooked during fairness assessment. We provide a novel weighing strategy to
reduce the effect of such imbalance through a non-linear function of sample
sizes of demographic groups. The proposed measures are independent of the
biometric modality, and thus, applicable across commonly used biometric
modalities (e.g., face, fingerprint, etc.).
- Abstract(参考訳): バイオメトリックシステムの人口格差は、その社会的影響と、そのようなシステムを民間および公共のドメインで適用する可能性に関する深刻な懸念を引き起こした。
人口統計学的フェアネスの定量的評価は、生体計測応用における人口統計バイアスの理解、評価、緩和のための重要なステップである。
既存の公正度尺度はバイオメトリックシステムの後決定データ(検証精度など)に基づくものはほとんどないが、事前決定データ(スコア分布)が人口統計学的公正性にどのように役立つかについて議論する。
本稿では,総称生体認証システムの人口統計学的公平性を評価するために,スコア分布の統計的特徴に基づく複数の尺度を提案する。
また,各公平度尺度に対して,構成的集団群からの貢献度と最終尺度への貢献度の違いについて検討した。
いずれの場合においても、測定値の挙動は合成データ上で数値的およびグラフィカルに示されてきた。
ベンチマークデータセットの人口不均衡は、フェアネスアセスメント中にしばしば見過ごされる。
人口集団のサンプルサイズの非線形関数を通じて、このような不均衡の影響を低減するための新しい重み付け戦略を提案する。
提案手法はバイオメトリックモダリティとは独立しており、一般的に使用されるバイオメトリックモダリティ(顔、指紋など)にも適用できる。
関連論文リスト
- Comprehensive Equity Index (CEI): Definition and Application to Bias Evaluation in Biometrics [47.762333925222926]
本稿では,機械学習モデルのバイアス行動の定量化のための新しい指標を提案する。
顔認識システムの運用評価に焦点をあて,適用する。
論文 参考訳(メタデータ) (2024-09-03T14:19:38Z) - Using Backbone Foundation Model for Evaluating Fairness in Chest Radiography Without Demographic Data [2.7436483977171333]
本研究の目的は,基礎モデルのバックボーンを埋め込み抽出器として用いることの有効性を検討することである。
我々は,これらのグループを,前処理,内処理,評価など,様々な段階のバイアス軽減に活用することを提案する。
論文 参考訳(メタデータ) (2024-08-28T20:35:38Z) - Leveraging Prototypical Representations for Mitigating Social Bias without Demographic Information [50.29934517930506]
DAFairは、言語モデルにおける社会的バイアスに対処する新しいアプローチである。
偏見を緩和するために、原型的人口統計テキストを活用し、微調整プロセス中に正規化用語を取り入れる。
論文 参考訳(メタデータ) (2024-03-14T15:58:36Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Metrics for Dataset Demographic Bias: A Case Study on Facial Expression Recognition [4.336779198334903]
人口統計バイアスの最も顕著な種類は、データセットにおける人口統計群の表現における統計的不均衡である。
我々はこれらの指標を分類するための分類法を開発し、適切な指標を選択するための実践的なガイドを提供する。
この論文は、データセットバイアスを緩和し、AIモデルの公正性と正確性を改善するために、AIと関連する分野の研究者に貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-28T11:04:18Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Fairness in Biometrics: a figure of merit to assess biometric
verification systems [1.218340575383456]
本稿では,複数の生体認証システム間の公平性を評価・比較できるメリットの最初の図式を紹介する。
2つの合成バイオメトリックシステムを用いたユースケースを導入し、この図形の可能性を実証する。
第二に、顔バイオメトリックスを用いたユースケースでは、この新たなメリットの数字と比較して、複数のシステムが評価される。
論文 参考訳(メタデータ) (2020-11-04T16:46:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。