論文の概要: Algorithmic Fairness in Face Morphing Attack Detection
- arxiv url: http://arxiv.org/abs/2111.12115v1
- Date: Tue, 23 Nov 2021 19:16:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-26 02:49:14.701695
- Title: Algorithmic Fairness in Face Morphing Attack Detection
- Title(参考訳): 顔形態検出におけるアルゴリズムフェアネス
- Authors: Raghavendra Ramachandra, Kiran Raja, Christoph Busch
- Abstract要約: 顔形態素攻撃検出(MAD)技術は近年,このような攻撃を抑え,形態素攻撃のリスクを軽減するために開発されている。
MADアルゴリズムは、異なる民族起源の被験者のイメージを平等に扱い、非差別的な結果を与えるべきである。
有望なMADアルゴリズムは堅牢性のためにテストされているが、様々な民族に対する彼らの振る舞いを包括的にベンチマークする研究は行われていない。
- 参考スコア(独自算出の注目度): 12.031583036177386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Face morphing attacks can compromise Face Recognition System (FRS) by
exploiting their vulnerability. Face Morphing Attack Detection (MAD) techniques
have been developed in recent past to deter such attacks and mitigate risks
from morphing attacks. MAD algorithms, as any other algorithms should treat the
images of subjects from different ethnic origins in an equal manner and provide
non-discriminatory results. While the promising MAD algorithms are tested for
robustness, there is no study comprehensively bench-marking their behaviour
against various ethnicities. In this paper, we study and present a
comprehensive analysis of algorithmic fairness of the existing Single
image-based Morph Attack Detection (S-MAD) algorithms. We attempt to better
understand the influence of ethnic bias on MAD algorithms and to this extent,
we study the performance of MAD algorithms on a newly created dataset
consisting of four different ethnic groups. With Extensive experiments using
six different S-MAD techniques, we first present benchmark of detection
performance and then measure the quantitative value of the algorithmic fairness
for each of them using Fairness Discrepancy Rate (FDR). The results indicate
the lack of fairness on all six different S-MAD methods when trained and tested
on different ethnic groups suggesting the need for reliable MAD approaches to
mitigate the algorithmic bias.
- Abstract(参考訳): 顔のモーフィング攻撃は、その脆弱性を悪用することで顔認識システム(frs)を損なう可能性がある。
顔形態素攻撃検出(MAD)技術は近年,このような攻撃を抑え,形態素攻撃のリスクを軽減するために開発されている。
マッドアルゴリズムは、他のアルゴリズムと同様に、異なる民族起源の被写体の画像を等しく扱い、非差別的な結果を与える。
有望なMADアルゴリズムは堅牢性のためにテストされているが、様々な民族に対する彼らの行動を包括的にベンチマークする研究はない。
本稿では,既存のSingle Image-based Morph Detection (S-MAD)アルゴリズムのアルゴリズムフェアネスの包括的解析と解析を行う。
我々は,マッドアルゴリズムに対する民族バイアスの影響をより深く理解するために,マッドアルゴリズムの性能を4つの異なる民族集団からなるデータセット上で検討する。
6種類のs-mad法を用いて広範な実験を行い,まず検出性能のベンチマークを行い,fdr(frepancy rate)を用いてアルゴリズム的フェアネスの定量的評価を行った。
その結果,6つの異なるS-MAD手法に対して,アルゴリズムバイアスを軽減するための信頼性の高いMADアプローチの必要性が示唆された。
関連論文リスト
- Re-evaluation of Face Anti-spoofing Algorithm in Post COVID-19 Era Using Mask Based Occlusion Attack [4.550965216676562]
顔の偽造防止アルゴリズムは、プレゼンテーション攻撃に対する顔認識システムの堅牢な展開において重要な役割を果たす。
我々は5種類のマスクを用いて、顔の下部を様々なカバー領域で覆っている。
また、顔の上部を覆う様々な種類の眼鏡も使用しています。
論文 参考訳(メタデータ) (2024-08-23T17:48:22Z) - Greedy-DiM: Greedy Algorithms for Unreasonably Effective Face Morphs [2.0795007613453445]
拡散モルフ (Diffusion Morphs, DiM) は近年提案されているモルフ攻撃であり, 表現に基づくモルフ攻撃の最先端性能を実現している。
同一性に基づく関数によって導かれる最適ステップを探索するDiMモデルの反復サンプリングプロセスに関する欲求戦略を提案する。
提案アルゴリズムは,100%のMMPMRで試験されたFRシステムの全てを騙し,比較した他の全てのモルヒネアルゴリズムを上回り,不合理に有効であることがわかった。
論文 参考訳(メタデータ) (2024-04-09T05:21:32Z) - IM-IAD: Industrial Image Anomaly Detection Benchmark in Manufacturing [88.35145788575348]
画像異常検出(英: Image Anomaly Detection、IAD)は、産業用コンピュータビジョンの課題である。
統一IMベンチマークの欠如は、現実世界のアプリケーションにおけるIADメソッドの開発と利用を妨げる。
7つの主要なデータセットに19のアルゴリズムを含む包括的画像異常検出ベンチマーク(IM-IAD)を構築した。
論文 参考訳(メタデータ) (2023-01-31T01:24:45Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - An Empirical Study of Derivative-Free-Optimization Algorithms for
Targeted Black-Box Attacks in Deep Neural Networks [8.368543987898732]
本稿では,BOBYQAに基づく新しいアルゴリズムの導入とともに,既存のDFOベースの4つのアルゴリズムについて考察する。
我々は、これらのアルゴリズムを様々な設定で比較し、それらを誤分類した画像の数に応じて比較する。
実験では、敵の例を見つける確率が、使用されるアルゴリズムと攻撃の設定の両方に依存するかを明らかにする。
論文 参考訳(メタデータ) (2020-12-03T13:32:20Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Morphing Attack Detection -- Database, Evaluation Platform and
Benchmarking [16.77282920396874]
モーフィング攻撃は顔認識システム(FRS)に深刻な脅威をもたらしている
最近の研究で報告されている進歩の数にもかかわらず、独立したベンチマーク、一般化可能性の課題、年齢、性別、民族性の考慮といった深刻な未解決の問題に留意する。
そこで本研究では,MADの進歩を促進するために,新たなシークエンスデータセットを提案する。
論文 参考訳(メタデータ) (2020-06-11T14:11:09Z) - On the Robustness of Face Recognition Algorithms Against Attacks and
Bias [78.68458616687634]
顔認識アルゴリズムは非常に高い認識性能を示しており、現実のアプリケーションに適していることを示唆している。
精度が向上したにもかかわらず、これらのアルゴリズムの攻撃や偏見に対する堅牢性は問題視されている。
本稿では,顔認識アルゴリズムの頑健性に挑戦する様々な方法について要約する。
論文 参考訳(メタデータ) (2020-02-07T18:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。