論文の概要: The More Secure, The Less Equally Usable: Gender and Ethnicity
(Un)fairness of Deep Face Recognition along Security Thresholds
- arxiv url: http://arxiv.org/abs/2209.15550v1
- Date: Fri, 30 Sep 2022 15:51:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 16:01:25.994752
- Title: The More Secure, The Less Equally Usable: Gender and Ethnicity
(Un)fairness of Deep Face Recognition along Security Thresholds
- Title(参考訳): より安全で均等でない: セキュリティ閾値に沿った深い顔認識の性別と民族性(un)
- Authors: Andrea Atzori, Gianni Fenu, Mirko Marras
- Abstract要約: 人口集団間の格差が、異なるセキュリティレベルの下でどの程度変化するかを検討する。
実験により、システムのセキュリティが高いほど、人口集団間のユーザビリティの格差が高くなることが示された。
- 参考スコア(独自算出の注目度): 9.569575076277523
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Face biometrics are playing a key role in making modern smart city
applications more secure and usable. Commonly, the recognition threshold of a
face recognition system is adjusted based on the degree of security for the
considered use case. The likelihood of a match can be for instance decreased by
setting a high threshold in case of a payment transaction verification. Prior
work in face recognition has unfortunately showed that error rates are usually
higher for certain demographic groups. These disparities have hence brought
into question the fairness of systems empowered with face biometrics. In this
paper, we investigate the extent to which disparities among demographic groups
change under different security levels. Our analysis includes ten face
recognition models, three security thresholds, and six demographic groups based
on gender and ethnicity. Experiments show that the higher the security of the
system is, the higher the disparities in usability among demographic groups
are. Compelling unfairness issues hence exist and urge countermeasures in
real-world high-stakes environments requiring severe security levels.
- Abstract(参考訳): 顔のバイオメトリックスは、現代のスマートシティアプリケーションをより安全で使いやすいものにする上で重要な役割を担っている。
一般的に、検討されたユースケースのセキュリティの程度に基づいて、顔認識システムの認識しきい値を調整する。
例えば、支払トランザクション検証時に高い閾値を設定することにより、マッチの可能性を低減することができる。
顔認識における以前の研究は、一部の人口集団ではエラー率が通常高いことを示した。
これらの格差は、顔バイオメトリックスで付与されたシステムの公平性に疑問を呈している。
本稿では,異なるセキュリティレベルにおいて,集団間の格差がどの程度変化するかを検討する。
分析には、10種類の顔認識モデル、3つのセキュリティしきい値、性別と民族に基づく6つの人口統計グループが含まれる。
実験により、システムのセキュリティが高いほど、人口集団間のユーザビリティの格差が高くなることが示された。
したがって、不公平な問題に対処し、厳重なセキュリティレベルを必要とする現実世界のハイテイク環境に対策を促す。
関連論文リスト
- Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Optimizing Key-Selection for Face-based One-Time Biometrics via Morphing [10.057840103622766]
顔認識システムはいまだに敵の攻撃に弱い。
本稿では,競争力のあるキャンセル可能なスキームの安全性を向上させるために,異なる鍵選択手法を提案する。
論文 参考訳(メタデータ) (2023-10-04T17:32:32Z) - Fair Models in Credit: Intersectional Discrimination and the
Amplification of Inequity [5.333582981327497]
筆者らはマイクロファイナンス・コンテキストにおけるそのようなアルゴリズムバイアスの影響を実証した。
法的に保護された特徴に加えて、単一親状態や子供の数などの敏感な属性は、不均衡な害をもたらすことが判明した。
論文 参考訳(メタデータ) (2023-08-01T10:34:26Z) - Evaluating Proposed Fairness Models for Face Recognition Algorithms [0.0]
本稿では,米国と欧州の科学者による顔認識アルゴリズムの公正度(公正度)の2つの尺度を特徴付ける。
本稿では,顔認識アルゴリズムの公正度測定において望ましい特性の集合を概説した,機能的公正度基準(FFMC)と呼ばれる解釈可能性基準を提案する。
これは現在、この種のオープンソースデータセットとしては最大のものだと考えています。
論文 参考訳(メタデータ) (2022-03-09T21:16:43Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - Fairness Properties of Face Recognition and Obfuscation Systems [19.195705814819306]
顔難読化システムは、画像に追加されると知覚不能な摂動を生成し、顔認識システムがユーザを誤識別させる。
顔認識の文脈で不公平であることが知られているメートル法埋め込みネットワークに対する顔難読化のこのような依存は、人口統計学的公正性の問題を表面化させる。
グラフ埋め込みネットワークは人口統計学的に認識されており、それらの人口統計学的特性に基づいて埋め込み空間に顔をクラスタリングしている。
論文 参考訳(メタデータ) (2021-08-05T16:18:15Z) - Biometrics: Trust, but Verify [49.9641823975828]
バイオメトリック認識は、世界中のさまざまなアプリケーションに爆発しました。
生体認証システムの様々なサブモジュールに関する多くの顕著な問題と懸念があります。
論文 参考訳(メタデータ) (2021-05-14T03:07:25Z) - Towards Gender-Neutral Face Descriptors for Mitigating Bias in Face
Recognition [51.856693288834975]
最先端のディープネットワークは、顔認識のために訓練されている間、性別情報を暗黙的にエンコードする。
ジェンダーは顔を識別する上で重要な属性と見なされることが多い。
本稿では,顔ディスクリプタに存在する性別情報を減らすために,新たにAGENDA(Adversarial Gender De-biasing Algorithm)を提案する。
論文 参考訳(メタデータ) (2020-06-14T08:54:03Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z) - SensitiveLoss: Improving Accuracy and Fairness of Face Representations
with Discrimination-Aware Deep Learning [17.088716485755917]
偏見認識アルゴリズムの精度と公平性を改善するための識別認識学習法を提案する。
実験により、最もよく使われている顔データベースに基づく学習プロセスが、アルゴリズムによる識別の強い、一般的な訓練済みの深層顔モデルに繋がったことを示す。
提案手法は,事前学習ネットワークへのアドオンとして機能し,平均精度と公平性の観点から性能向上に有効である。
論文 参考訳(メタデータ) (2020-04-22T10:32:16Z) - On the Robustness of Face Recognition Algorithms Against Attacks and
Bias [78.68458616687634]
顔認識アルゴリズムは非常に高い認識性能を示しており、現実のアプリケーションに適していることを示唆している。
精度が向上したにもかかわらず、これらのアルゴリズムの攻撃や偏見に対する堅牢性は問題視されている。
本稿では,顔認識アルゴリズムの頑健性に挑戦する様々な方法について要約する。
論文 参考訳(メタデータ) (2020-02-07T18:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。