論文の概要: Demographic Bias in Presentation Attack Detection of Iris Recognition
Systems
- arxiv url: http://arxiv.org/abs/2003.03151v2
- Date: Fri, 3 Jul 2020 10:02:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 01:29:34.902077
- Title: Demographic Bias in Presentation Attack Detection of Iris Recognition
Systems
- Title(参考訳): 虹彩認識システムの提示検出におけるデモグラフィックバイアス
- Authors: Meiling Fang, Naser Damer, Florian Kirchbuchner, Arjan Kuijper
- Abstract要約: プレゼンテーションアタック検出(PAD)アルゴリズムにおける人口統計バイアスについて検討し分析する。
差分性能と差分結果の概念をPAD問題に適用する。
実験の結果、女性の利用者は男性に比べてPADによって保護されることが著しく少なくなることが示された。
- 参考スコア(独自算出の注目度): 15.15287401843062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the widespread use of biometric systems, the demographic bias problem
raises more attention. Although many studies addressed bias issues in biometric
verification, there are no works that analyze the bias in presentation attack
detection (PAD) decisions. Hence, we investigate and analyze the demographic
bias in iris PAD algorithms in this paper. To enable a clear discussion, we
adapt the notions of differential performance and differential outcome to the
PAD problem. We study the bias in iris PAD using three baselines (hand-crafted,
transfer-learning, and training from scratch) using the NDCLD-2013 database.
The experimental results point out that female users will be significantly less
protected by the PAD, in comparison to males.
- Abstract(参考訳): 生体認証システムの利用が広まるにつれ、人口統計学のバイアス問題はより注目を集める。
多くの研究では生体認証におけるバイアス問題に対処しているが、プレゼンテーションアタック検出(PAD)決定におけるバイアスを分析する研究は存在しない。
そこで本論文では,アイリスPADアルゴリズムの人口統計バイアスを調査し,解析する。
明確な議論を可能にするため,PAD問題に差分性能と差分結果の概念を適用した。
ndcld-2013データベースを用いて,3つのベースライン(手作り,転送学習,トレーニング)を用いて虹彩パッドのバイアスについて検討した。
実験の結果、女性ユーザーは男性に比べてPADによって保護されることが著しく少なくなることが示された。
関連論文リスト
- How far can bias go? -- Tracing bias from pretraining data to alignment [54.51310112013655]
本研究では, 事前学習データにおける性別占有バイアスと, LLMにおける性別占有バイアスの相関について検討した。
その結果,事前学習データに存在するバイアスがモデル出力に増幅されることが判明した。
論文 参考訳(メタデータ) (2024-11-28T16:20:25Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - (Predictable) Performance Bias in Unsupervised Anomaly Detection [3.826262429926079]
教師なし異常検出(UAD)モデルは、疾患検出の重要な第1ステップを支援することを約束する。
本研究は, ある集団群に対して, UADモデルの異なる性能を定量的に評価した。
論文 参考訳(メタデータ) (2023-09-25T14:57:43Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Risk of Training Diagnostic Algorithms on Data with Demographic Bias [0.5599792629509227]
医用画像解析アプリケーションにおけるMICCAI 2018の実践を調査するために,MICCAI 2018の手順を調査した。
意外なことに、診断に焦点を当てた論文では、使用されるデータセットの人口統計がほとんど書かれていないことが判明した。
本研究では,非偏りのある特徴を,対向的な学習環境において,人口統計変数を明示的に使用することにより学習可能であることを示す。
論文 参考訳(メタデータ) (2020-05-20T13:51:01Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z) - Demographic Bias: A Challenge for Fingervein Recognition Systems? [0.0]
多くの自動システムの基盤となるアルゴリズム(バイオメトリックスを含む)の潜在的なバイアスに関する懸念が高まっている。
偏見付きアルゴリズムは、性別や年齢などの特定の(しばしば差別防止法によって保護される)属性に基づいて、異なるグループの個人に対して統計的に異なる結果を生成する。
本稿では,フィンガーベイン認識の問題を確かめるために,いくつかの一般的な認識アルゴリズムをベンチマークした。
論文 参考訳(メタデータ) (2020-04-03T07:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。