論文の概要: AdvGen: Physical Adversarial Attack on Face Presentation Attack
Detection Systems
- arxiv url: http://arxiv.org/abs/2311.11753v1
- Date: Mon, 20 Nov 2023 13:28:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 18:52:16.364490
- Title: AdvGen: Physical Adversarial Attack on Face Presentation Attack
Detection Systems
- Title(参考訳): AdvGen:顔提示攻撃検知システムに対する物理的敵対攻撃
- Authors: Sai Amrit Patnaik, Shivali Chansoriya, Anil K. Jain, Anoop M.
Namboodiri
- Abstract要約: 敵対的攻撃が注目を集めており、認識システムの学習戦略をデジタルで欺こうとしている。
本稿では,物理世界のシナリオにおいて,顔認証システムの逆画像に対する脆弱性を実証する。
本稿では,自動生成支援ネットワークであるAdvGenを提案し,印刷・再生攻撃をシミュレートし,最先端のPADを騙すことのできる逆画像を生成する。
- 参考スコア(独自算出の注目度): 17.03646903905082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluating the risk level of adversarial images is essential for safely
deploying face authentication models in the real world. Popular approaches for
physical-world attacks, such as print or replay attacks, suffer from some
limitations, like including physical and geometrical artifacts. Recently,
adversarial attacks have gained attraction, which try to digitally deceive the
learning strategy of a recognition system using slight modifications to the
captured image. While most previous research assumes that the adversarial image
could be digitally fed into the authentication systems, this is not always the
case for systems deployed in the real world. This paper demonstrates the
vulnerability of face authentication systems to adversarial images in physical
world scenarios. We propose AdvGen, an automated Generative Adversarial
Network, to simulate print and replay attacks and generate adversarial images
that can fool state-of-the-art PADs in a physical domain attack setting. Using
this attack strategy, the attack success rate goes up to 82.01%. We test AdvGen
extensively on four datasets and ten state-of-the-art PADs. We also demonstrate
the effectiveness of our attack by conducting experiments in a realistic,
physical environment.
- Abstract(参考訳): 顔認証モデルが現実世界に安全にデプロイするには,敵画像のリスクレベルを評価することが不可欠である。
印刷やリプレイ攻撃のような物理世界の攻撃に対する一般的なアプローチは、物理的および幾何学的アーティファクトを含むいくつかの制限に悩まされている。
近年,画像にわずかな修正を加えることで,認識システムの学習戦略をデジタル化しようとする敵の攻撃が注目されている。
これまでのほとんどの研究は、敵画像が認証システムにデジタル的に供給される可能性があると仮定しているが、これは必ずしも現実世界にデプロイされるシステムには当てはまらない。
本稿では,物理的シナリオにおける顔認証システムの敵画像に対する脆弱性を実証する。
本稿では,印刷および再生攻撃をシミュレートし,物理ドメイン攻撃設定において最先端のパットを騙すことができる敵画像を生成するための,自動生成型敵ネットワークadvgenを提案する。
この攻撃戦略を用いることで、攻撃成功率は82.01%に達する。
われわれはAdvGenを4つのデータセットと10の最先端のPADで広範囲にテストしている。
また,現実的な物理的環境で実験を行うことにより,攻撃の有効性を示す。
関連論文リスト
- Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - Generalized Attacks on Face Verification Systems [2.4259557752446637]
ディープニューラルネットワークモデルを用いた顔認証(FV)は近年大きく進歩している。
FVシステムは、通常人間に知られない方法でこれらのシステムを騙すために入力画像を操作する敵攻撃(Adversarial Attacks)に弱い。
与えられたアイデンティティの集合を識別する顔画像の作成を定式化するDodgePersonation Attackを導入する。
論文 参考訳(メタデータ) (2023-09-12T00:00:24Z) - Why Don't You Clean Your Glasses? Perception Attacks with Dynamic
Optical Perturbations [17.761200546223442]
敵の攻撃を物理的世界に適応させることが、攻撃者にとって望ましい。
EvilEyeは、ディスプレイを透過的に利用し、ダイナミックな物理的逆転の例を生成する、中間者認識攻撃である。
論文 参考訳(メタデータ) (2023-07-24T21:16:38Z) - Evaluating Adversarial Robustness on Document Image Classification [0.0]
我々は、敵の攻撃哲学をドキュメンタリーや自然データに適用し、そのような攻撃に対してモデルを保護する。
我々は、未目標のグラデーションベース、トランスファーベース、スコアベースの攻撃に焦点を合わせ、敵の訓練の影響を評価する。
論文 参考訳(メタデータ) (2023-04-24T22:57:59Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Empirical Evaluation of Physical Adversarial Patch Attacks Against
Overhead Object Detection Models [2.2588953434934416]
逆パッチ(Adversarial patch)は、ニューラルネットワークベースのコンピュータビジョンモデルに悪用されたイメージである。
近年の研究では、これらの攻撃が物理的世界への移動に成功できることが示されている。
我々はさらに、より困難な条件下で、物理的世界における敵パッチ攻撃の有効性を検証した。
論文 参考訳(メタデータ) (2022-06-25T20:05:11Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Robust Attacks on Deep Learning Face Recognition in the Physical World [48.909604306342544]
FaceAdvは、敵のステッカーを使ってFRシステムを騙す物理世界の攻撃だ。
主にステッカージェネレータとトランスフォーマーで構成され、前者は異なる形状のステッカーを作れる。
3種類のFRシステムに対するFaceAdvの有効性を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-11-27T02:24:43Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Adversarial Light Projection Attacks on Face Recognition Systems: A
Feasibility Study [21.42041262836322]
対向光投射を用いた顔認識システムに対するリアルタイム物理攻撃の実現可能性について検討する。
敵は、相手に利用可能なターゲットの1つ以上の画像を用いて、デジタル敵パターンを生成する。
デジタル対向パターンは、物理的領域の敵の顔に投影され、ターゲット(偽装)を偽装するか、認識(難読化)を避ける。
論文 参考訳(メタデータ) (2020-03-24T23:06:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。