論文の概要: ReFace: Real-time Adversarial Attacks on Face Recognition Systems
- arxiv url: http://arxiv.org/abs/2206.04783v1
- Date: Thu, 9 Jun 2022 22:25:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 15:18:46.397590
- Title: ReFace: Real-time Adversarial Attacks on Face Recognition Systems
- Title(参考訳): reface: 顔認識システムにおけるリアルタイム逆襲
- Authors: Shehzeen Hussain, Todd Huster, Chris Mesterharm, Paarth Neekhara,
Kevin An, Malhar Jere, Harshvardhan Sikka, Farinaz Koushanfar
- Abstract要約: 本稿では,ATN(Adversarial Transformation Networks)に基づく顔認識モデルに対するリアルタイムかつ高変換可能な攻撃であるReFaceを提案する。
ATNsモデルによるフィードフォワードニューラルネットワークの逆例生成
純U-Net ATNのホワイトボックス攻撃成功率は、大規模顔認識データセットのPGDのような勾配に基づく攻撃にほぼ及ばないことがわかった。
- 参考スコア(独自算出の注目度): 17.761026041449977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural network based face recognition models have been shown to be
vulnerable to adversarial examples. However, many of the past attacks require
the adversary to solve an input-dependent optimization problem using gradient
descent which makes the attack impractical in real-time. These adversarial
examples are also tightly coupled to the attacked model and are not as
successful in transferring to different models. In this work, we propose
ReFace, a real-time, highly-transferable attack on face recognition models
based on Adversarial Transformation Networks (ATNs). ATNs model adversarial
example generation as a feed-forward neural network. We find that the white-box
attack success rate of a pure U-Net ATN falls substantially short of
gradient-based attacks like PGD on large face recognition datasets. We
therefore propose a new architecture for ATNs that closes this gap while
maintaining a 10000x speedup over PGD. Furthermore, we find that at a given
perturbation magnitude, our ATN adversarial perturbations are more effective in
transferring to new face recognition models than PGD. ReFace attacks can
successfully deceive commercial face recognition services in a transfer attack
setting and reduce face identification accuracy from 82% to 16.4% for AWS
SearchFaces API and Azure face verification accuracy from 91% to 50.1%.
- Abstract(参考訳): ディープニューラルネットワークに基づく顔認識モデルは、敵の例に弱いことが示されている。
しかし、過去の攻撃の多くは、リアルタイムに攻撃を非現実化する勾配降下を用いた入力依存最適化問題を解決するために敵が要求した。
これらの逆例は攻撃されたモデルと強く結びついており、異なるモデルへの転送には成功していない。
本稿では,adversarial transformation networks (atns) に基づく顔認識モデルに対するリアルタイム・高転送性攻撃であるrefaceを提案する。
atnモデル フィードフォワードニューラルネットワークとしての逆例生成。
純U-Net ATNのホワイトボックス攻撃成功率は、大規模顔認識データセットのPGDのような勾配に基づく攻撃にほぼ及ばないことがわかった。
そこで我々は,PGDの10000倍の高速化を維持しながら,このギャップを埋める新しいアーキテクチャを提案する。
さらに,特定の摂動等級において,我々のatn逆摂動はpgdよりも新しい顔認識モデルへの移行に有効であることがわかった。
reface attackは、転送攻撃設定で商用顔認識サービスを欺き、aws searchfaces apiの顔認識精度を82%から16.4%に、azure face verification精度を91%から50.1%に削減する。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - RAF: Recursive Adversarial Attacks on Face Recognition Using Extremely
Limited Queries [2.8532545355403123]
近年の顔認識に対する敵対的攻撃の成功は、顔認識モデルの顕著な進歩にもかかわらず、認識と認識のための人間の知性にはまだ及ばないことを示している。
本稿では,ターゲットモデルを騙すために,極めて限られたクエリ数を必要とする自動顔整形を提案する。
決定に基づくブラックボックス攻撃設定における提案手法のロバスト性を評価する。
論文 参考訳(メタデータ) (2022-07-04T00:22:45Z) - RSTAM: An Effective Black-Box Impersonation Attack on Face Recognition
using a Mobile and Compact Printer [10.245536402327096]
RSTAMと呼ばれる顔認識モデルやシステムを攻撃する新しい手法を提案する。
RSTAMは、モバイルおよびコンパクトプリンタによって印刷された対向マスクを用いて、効果的なブラックボックス偽造攻撃を可能にする。
攻撃のパフォーマンスは、Face++、Baidu、Aliyun、Tencent、Microsoftといった最先端の商用顔認識システムでも評価されている。
論文 参考訳(メタデータ) (2022-06-25T08:16:55Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Improving Transferability of Adversarial Patches on Face Recognition
with Generative Models [43.51625789744288]
転写性に基づいた対向パッチを用いた顔認識モデルのロバスト性の評価を行った。
代用モデルと対象モデルの応答のギャップが劇的に減少し,転送性が向上したことを示す。
論文 参考訳(メタデータ) (2021-06-29T02:13:05Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。