論文の概要: Demographic Bias: A Challenge for Fingervein Recognition Systems?
- arxiv url: http://arxiv.org/abs/2004.01418v1
- Date: Fri, 3 Apr 2020 07:53:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 05:04:34.733372
- Title: Demographic Bias: A Challenge for Fingervein Recognition Systems?
- Title(参考訳): 人口統計学バイアス:フィンガーベイン認識システムへの挑戦?
- Authors: P. Drozdowski, B. Prommegger, G. Wimmer, R. Schraml, C. Rathgeb, A.
Uhl, C. Busch
- Abstract要約: 多くの自動システムの基盤となるアルゴリズム(バイオメトリックスを含む)の潜在的なバイアスに関する懸念が高まっている。
偏見付きアルゴリズムは、性別や年齢などの特定の(しばしば差別防止法によって保護される)属性に基づいて、異なるグループの個人に対して統計的に異なる結果を生成する。
本稿では,フィンガーベイン認識の問題を確かめるために,いくつかの一般的な認識アルゴリズムをベンチマークした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, concerns regarding potential biases in the underlying algorithms of
many automated systems (including biometrics) have been raised. In this
context, a biased algorithm produces statistically different outcomes for
different groups of individuals based on certain (often protected by
anti-discrimination legislation) attributes such as sex and age. While several
preliminary studies investigating this matter for facial recognition algorithms
do exist, said topic has not yet been addressed for vascular biometric
characteristics. Accordingly, in this paper, several popular types of
recognition algorithms are benchmarked to ascertain the matter for fingervein
recognition. The experimental evaluation suggests lack of bias for the tested
algorithms, although future works with larger datasets are needed to validate
and confirm those preliminary results.
- Abstract(参考訳): 近年、多くの自動システムの基盤となるアルゴリズム(バイオメトリックスを含む)の潜在的なバイアスに関する懸念が高まっている。
この文脈では、偏見付きアルゴリズムは、性別や年齢などの特定の(しばしば差別防止法によって保護される)属性に基づいて、異なるグループの個人に対して統計的に異なる結果を生成する。
顔認識アルゴリズムに関するいくつかの予備的な研究は存在するが、血管のバイオメトリック特性についてはまだ言及されていない。
そこで本研究では,フィンガーベイン認識に関する問題を確認するために,いくつかの一般的な認識アルゴリズムをベンチマークした。
実験的評価は、テストされたアルゴリズムのバイアスの欠如を示唆するが、これらの予備的な結果を検証し確認するには、より大規模なデータセットを使った将来の作業が必要である。
関連論文リスト
- Facial Soft Biometrics for Recognition in the Wild: Recent Works,
Annotation, and COTS Evaluation [63.05890836038913]
制約のないシナリオにおける人物認識システムを強化するために,ソフトバイオメトリックスが果たす役割について検討する。
1) ソフトバイオメトリックスのマニュアル推定と,2) 市販オフザシェルフシステムによる自動推定の2つの仮定を考察する。
深層学習に基づく2つの最先端顔認識システムを用いた軟式生体計測実験を行った。
論文 参考訳(メタデータ) (2022-10-24T11:29:57Z) - Evaluating Proposed Fairness Models for Face Recognition Algorithms [0.0]
本稿では,米国と欧州の科学者による顔認識アルゴリズムの公正度(公正度)の2つの尺度を特徴付ける。
本稿では,顔認識アルゴリズムの公正度測定において望ましい特性の集合を概説した,機能的公正度基準(FFMC)と呼ばれる解釈可能性基準を提案する。
これは現在、この種のオープンソースデータセットとしては最大のものだと考えています。
論文 参考訳(メタデータ) (2022-03-09T21:16:43Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Benchmarking Quality-Dependent and Cost-Sensitive Score-Level Multimodal
Biometric Fusion Algorithms [58.156733807470395]
本稿では,BioSecure DS2 (Access Control) 評価キャンペーンの枠組み内で実施したベンチマーク研究について報告する。
キャンペーンは、約500人の中規模施設における物理的アクセス制御の適用を目標とした。
我々の知る限りでは、これは品質ベースのマルチモーダル融合アルゴリズムをベンチマークする最初の試みである。
論文 参考訳(メタデータ) (2021-11-17T13:39:48Z) - Biometrics: Trust, but Verify [49.9641823975828]
バイオメトリック認識は、世界中のさまざまなアプリケーションに爆発しました。
生体認証システムの様々なサブモジュールに関する多くの顕著な問題と懸念があります。
論文 参考訳(メタデータ) (2021-05-14T03:07:25Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z) - SensitiveLoss: Improving Accuracy and Fairness of Face Representations
with Discrimination-Aware Deep Learning [17.088716485755917]
偏見認識アルゴリズムの精度と公平性を改善するための識別認識学習法を提案する。
実験により、最もよく使われている顔データベースに基づく学習プロセスが、アルゴリズムによる識別の強い、一般的な訓練済みの深層顔モデルに繋がったことを示す。
提案手法は,事前学習ネットワークへのアドオンとして機能し,平均精度と公平性の観点から性能向上に有効である。
論文 参考訳(メタデータ) (2020-04-22T10:32:16Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Demographic Bias in Presentation Attack Detection of Iris Recognition
Systems [15.15287401843062]
プレゼンテーションアタック検出(PAD)アルゴリズムにおける人口統計バイアスについて検討し分析する。
差分性能と差分結果の概念をPAD問題に適用する。
実験の結果、女性の利用者は男性に比べてPADによって保護されることが著しく少なくなることが示された。
論文 参考訳(メタデータ) (2020-03-06T12:16:19Z) - Demographic Bias in Biometrics: A Survey on an Emerging Challenge [0.0]
生体計測システムは、人間の特定の生物学的または法医学的特性の特異性に依存している。
自動意思決定システムにおける体系的バイアスの存在に関して、公共および学術的な懸念の波が相次いだ。
論文 参考訳(メタデータ) (2020-03-05T09:07:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。