論文の概要: Robust Physical-World Attacks on Face Recognition
- arxiv url: http://arxiv.org/abs/2109.09320v1
- Date: Mon, 20 Sep 2021 06:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:26:49.936071
- Title: Robust Physical-World Attacks on Face Recognition
- Title(参考訳): 顔認識におけるロバストな物理世界攻撃
- Authors: Xin Zheng, Yanbo Fan, Baoyuan Wu, Yong Zhang, Jue Wang, Shirui Pan
- Abstract要約: ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
- 参考スコア(独自算出の注目度): 52.403564953848544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition has been greatly facilitated by the development of deep
neural networks (DNNs) and has been widely applied to many safety-critical
applications. However, recent studies have shown that DNNs are very vulnerable
to adversarial examples, raising serious concerns on the security of real-world
face recognition. In this work, we study sticker-based physical attacks on face
recognition for better understanding its adversarial robustness. To this end,
we first analyze in-depth the complicated physical-world conditions confronted
by attacking face recognition, including the different variations of stickers,
faces, and environmental conditions. Then, we propose a novel robust physical
attack framework, dubbed PadvFace, to model these challenging variations
specifically. Furthermore, considering the difference in attack complexity, we
propose an efficient Curriculum Adversarial Attack (CAA) algorithm that
gradually adapts adversarial stickers to environmental variations from easy to
complex. Finally, we construct a standardized testing protocol to facilitate
the fair evaluation of physical attacks on face recognition, and extensive
experiments on both dodging and impersonation attacks demonstrate the superior
performance of the proposed method.
- Abstract(参考訳): 顔認識はディープニューラルネットワーク(DNN)の開発によって大幅に促進され、多くの安全クリティカルなアプリケーションに広く適用されてきた。
しかし、最近の研究では、DNNは敵の例に非常に弱いことが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
本研究では,ステッカーによる顔認識に対する物理的攻撃について検討し,その対向的堅牢性をよりよく理解する。
そこで,我々はまず,ステッカーや顔,環境条件など,顔認識を攻撃して直面する複雑な物理環境について詳細に分析する。
そこで我々は,これらの難易度を特にモデル化するために,PadvFaceと呼ばれる新しい堅牢な物理攻撃フレームワークを提案する。
さらに,攻撃複雑性の違いを考慮し,より容易から複雑まで環境変動に徐々に適応する効率的なCAAアルゴリズムを提案する。
最後に,顔認識における物理的攻撃の公平な評価を容易にするための標準テストプロトコルを構築し,提案手法の優れた性能を示すドッジアタックと偽装アタックの両方に関する広範な実験を行った。
関連論文リスト
- Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - RAF: Recursive Adversarial Attacks on Face Recognition Using Extremely
Limited Queries [2.8532545355403123]
近年の顔認識に対する敵対的攻撃の成功は、顔認識モデルの顕著な進歩にもかかわらず、認識と認識のための人間の知性にはまだ及ばないことを示している。
本稿では,ターゲットモデルを騙すために,極めて限られたクエリ数を必要とする自動顔整形を提案する。
決定に基づくブラックボックス攻撃設定における提案手法のロバスト性を評価する。
論文 参考訳(メタデータ) (2022-07-04T00:22:45Z) - Controllable Evaluation and Generation of Physical Adversarial Patch on
Face Recognition [49.42127182149948]
近年の研究では、顔認証モデルの物理的敵パッチに対する脆弱性が明らかにされている。
本稿では3次元顔モデルを用いて物理世界の顔の複雑な変形をシミュレートする。
さらに、3次元顔変換と現実的な物理的変動を考慮したFace3DAdv法を提案する。
論文 参考訳(メタデータ) (2022-03-09T10:21:40Z) - Vulnerability Analysis of Face Morphing Attacks from Landmarks and
Generative Adversarial Networks [0.8602553195689513]
本稿は,OpenCV, FaceMorpher, WebMorph, および生成対向ネットワーク(StyleGAN)に基づく4種類のモーフィング攻撃を用いた新しいデータセットを提供する。
また,facenet,vgg-face,arcfaceなど,最先端の顔認識システムの脆弱性を評価するための広範な実験を行った。
論文 参考訳(メタデータ) (2020-12-09T22:10:17Z) - Robust Attacks on Deep Learning Face Recognition in the Physical World [48.909604306342544]
FaceAdvは、敵のステッカーを使ってFRシステムを騙す物理世界の攻撃だ。
主にステッカージェネレータとトランスフォーマーで構成され、前者は異なる形状のステッカーを作れる。
3種類のFRシステムに対するFaceAdvの有効性を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-11-27T02:24:43Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z) - On the Robustness of Face Recognition Algorithms Against Attacks and
Bias [78.68458616687634]
顔認識アルゴリズムは非常に高い認識性能を示しており、現実のアプリケーションに適していることを示唆している。
精度が向上したにもかかわらず、これらのアルゴリズムの攻撃や偏見に対する堅牢性は問題視されている。
本稿では,顔認識アルゴリズムの頑健性に挑戦する様々な方法について要約する。
論文 参考訳(メタデータ) (2020-02-07T18:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。