論文の概要: FACESEC: A Fine-grained Robustness Evaluation Framework for Face
Recognition Systems
- arxiv url: http://arxiv.org/abs/2104.04107v1
- Date: Thu, 8 Apr 2021 23:00:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 21:46:39.209936
- Title: FACESEC: A Fine-grained Robustness Evaluation Framework for Face
Recognition Systems
- Title(参考訳): FACESEC: 顔認識システムのためのきめ細かいロバスト性評価フレームワーク
- Authors: Liang Tong, Zhengzhang Chen, Jingchao Ni, Wei Cheng, Dongjin Song,
Haifeng Chen, Yevgeniy Vorobeychik
- Abstract要約: FACESECは、顔認識システムのきめ細かい堅牢性評価のためのフレームワークです。
5つの顔認識システムをクローズド設定とオープン設定の両方で検討します。
ニューラルネットワークの正確な知識は、ブラックボックス攻撃におけるトレーニングデータの知識よりもはるかに重要である。
- 参考スコア(独自算出の注目度): 49.577302852655144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present FACESEC, a framework for fine-grained robustness evaluation of
face recognition systems. FACESEC evaluation is performed along four dimensions
of adversarial modeling: the nature of perturbation (e.g., pixel-level or face
accessories), the attacker's system knowledge (about training data and learning
architecture), goals (dodging or impersonation), and capability (tailored to
individual inputs or across sets of these). We use FACESEC to study five face
recognition systems in both closed-set and open-set settings, and to evaluate
the state-of-the-art approach for defending against physically realizable
attacks on these. We find that accurate knowledge of neural architecture is
significantly more important than knowledge of the training data in black-box
attacks. Moreover, we observe that open-set face recognition systems are more
vulnerable than closed-set systems under different types of attacks. The
efficacy of attacks for other threat model variations, however, appears highly
dependent on both the nature of perturbation and the neural network
architecture. For example, attacks that involve adversarial face masks are
usually more potent, even against adversarially trained models, and the ArcFace
architecture tends to be more robust than the others.
- Abstract(参考訳): 顔認識システムのきめ細かい堅牢性評価のためのフレームワークであるFACESECを提案する。
FACESECの評価は、摂動の性質(ピクセルレベルまたは顔のアクセサリーなど)、攻撃者のシステム知識(トレーニングデータと学習アーキテクチャに関する)、目標(ドッジまたは偽装)、能力(個々の入力またはそれらのセットに合わせた)の4つの次元に沿って行われる。
我々は、FACESECを用いて、5つの顔認識システムをクローズドセットとオープンセットの両方で研究し、これらに対する物理的に実現可能な攻撃を防御するための最先端のアプローチを評価する。
ニューラルネットワークの正確な知識は、ブラックボックス攻撃におけるトレーニングデータの知識よりもはるかに重要である。
さらに,オープンセットの顔認識システムは,異なるタイプの攻撃下でのクローズドセットシステムよりも脆弱であることがわかった。
しかし、他の脅威モデルのバリエーションに対する攻撃の有効性は、摂動の性質とニューラルネットワークアーキテクチャの両方に大きく依存しているように見える。
例えば、敵のフェイスマスクを含む攻撃は通常、敵に訓練されたモデルに対してもより強力であり、ArcFaceアーキテクチャは他のものよりも堅牢である。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Quadruplet Loss For Improving the Robustness to Face Morphing Attacks [0.0]
顔認識システムは高度な攻撃に弱い。
本研究では, 顔認証システムのフォーミング攻撃に対するロバスト性を高めるために, 新たな四重項損失関数を導入する。
論文 参考訳(メタデータ) (2024-02-22T16:10:39Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - RAF: Recursive Adversarial Attacks on Face Recognition Using Extremely
Limited Queries [2.8532545355403123]
近年の顔認識に対する敵対的攻撃の成功は、顔認識モデルの顕著な進歩にもかかわらず、認識と認識のための人間の知性にはまだ及ばないことを示している。
本稿では,ターゲットモデルを騙すために,極めて限られたクエリ数を必要とする自動顔整形を提案する。
決定に基づくブラックボックス攻撃設定における提案手法のロバスト性を評価する。
論文 参考訳(メタデータ) (2022-07-04T00:22:45Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - Deep Bayesian Image Set Classification: A Defence Approach against
Adversarial Attacks [32.48820298978333]
ディープニューラルネットワーク(DNN)は、敵にほぼ自信を持って騙される可能性がある。
実際には、敵対的な例として知られる、注意深く摂動された画像に対するディープラーニングシステムの脆弱性は、物理世界のアプリケーションに深刻なセキュリティ上の脅威をもたらす。
本稿では,幅広い敵攻撃に対する防御フレームワークとして,頑健なベイズ画像集合分類を提案する。
論文 参考訳(メタデータ) (2021-08-23T14:52:44Z) - Adversarial Attacks against Face Recognition: A Comprehensive Study [3.766020696203255]
顔認識(FR)システムは優れた検証性能を示した。
近年の研究では、(深い)FRシステムは、知覚できない、または知覚できないが自然に見える対向的な入力画像に興味深い脆弱性を示すことが示されている。
論文 参考訳(メタデータ) (2020-07-22T22:46:00Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z) - On the Robustness of Face Recognition Algorithms Against Attacks and
Bias [78.68458616687634]
顔認識アルゴリズムは非常に高い認識性能を示しており、現実のアプリケーションに適していることを示唆している。
精度が向上したにもかかわらず、これらのアルゴリズムの攻撃や偏見に対する堅牢性は問題視されている。
本稿では,顔認識アルゴリズムの頑健性に挑戦する様々な方法について要約する。
論文 参考訳(メタデータ) (2020-02-07T18:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。