論文の概要: Improving Transferability of Adversarial Patches on Face Recognition
with Generative Models
- arxiv url: http://arxiv.org/abs/2106.15058v1
- Date: Tue, 29 Jun 2021 02:13:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:39:56.576730
- Title: Improving Transferability of Adversarial Patches on Face Recognition
with Generative Models
- Title(参考訳): 生成モデルによる顔認識における相反パッチの転送性の向上
- Authors: Zihao Xiao, Xianfeng Gao, Chilin Fu, Yinpeng Dong, Wei Gao, Xiaolu
Zhang, Jun Zhou, Jun Zhu
- Abstract要約: 転写性に基づいた対向パッチを用いた顔認識モデルのロバスト性の評価を行った。
代用モデルと対象モデルの応答のギャップが劇的に減少し,転送性が向上したことを示す。
- 参考スコア(独自算出の注目度): 43.51625789744288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition is greatly improved by deep convolutional neural networks
(CNNs). Recently, these face recognition models have been used for identity
authentication in security sensitive applications. However, deep CNNs are
vulnerable to adversarial patches, which are physically realizable and
stealthy, raising new security concerns on the real-world applications of these
models. In this paper, we evaluate the robustness of face recognition models
using adversarial patches based on transferability, where the attacker has
limited accessibility to the target models. First, we extend the existing
transfer-based attack techniques to generate transferable adversarial patches.
However, we observe that the transferability is sensitive to initialization and
degrades when the perturbation magnitude is large, indicating the overfitting
to the substitute models. Second, we propose to regularize the adversarial
patches on the low dimensional data manifold. The manifold is represented by
generative models pre-trained on legitimate human face images. Using face-like
features as adversarial perturbations through optimization on the manifold, we
show that the gaps between the responses of substitute models and the target
models dramatically decrease, exhibiting a better transferability. Extensive
digital world experiments are conducted to demonstrate the superiority of the
proposed method in the black-box setting. We apply the proposed method in the
physical world as well.
- Abstract(参考訳): 顔認識は深層畳み込みニューラルネットワーク(cnns)によって大幅に改善されている。
近年,これらの顔認識モデルはセキュリティに敏感なアプリケーションにおける識別認証に利用されている。
しかし、ディープCNNは、物理的に実現可能でステルス的な、敵のパッチに弱いため、これらのモデルの現実世界のアプリケーションに新たなセキュリティ上の懸念が生じる。
本稿では,攻撃者がターゲットモデルへのアクセシビリティを制限した移動可能性に基づく対向パッチを用いて,顔認識モデルのロバスト性を評価する。
まず、既存の転送ベースの攻撃手法を拡張して、転送可能な敵パッチを生成する。
しかし,トランスファービリティは初期化に敏感であり,摂動マグニチュードが大きい場合には劣化し,代用モデルに過度に適合することを示す。
次に,低次元データ多様体上の逆パッチの正規化を提案する。
この多様体は、正統な人間の顔画像で事前訓練された生成モデルによって表現される。
多様体上の最適化による逆摂動として顔のような特徴を用い, 置換モデルの応答と対象モデルとの差が劇的に減少し, 移動性が向上することを示した。
ブラックボックス設定における提案手法の優位性を示すため,大規模なデジタルワールド実験を行った。
提案手法を物理世界にも適用する。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - NeRFTAP: Enhancing Transferability of Adversarial Patches on Face
Recognition using Neural Radiance Fields [15.823538329365348]
本稿では、FRモデルへの転送可能性と被害者の顔画像の両方を考慮し、新たな敵攻撃法を提案する。
我々は,敵パッチの転送可能性を高めるために,ソースと対象対象のための新しいビューフェイス画像を生成する。
本研究は, FRシステムの強靭性向上に有用な知見を提供する。
論文 参考訳(メタデータ) (2023-11-29T03:17:14Z) - Boosting Adversarial Transferability with Learnable Patch-wise Masks [16.46210182214551]
敵の例は、異なるモデル間での転送可能性のため、セキュリティクリティカルなアプリケーションで広く注目を集めている。
本稿では、モデル固有の識別領域が、ソースモデルに過度に適合し、ターゲットモデルへの転送可能性を低減する重要な要因であると論じる。
これらの領域を正確にローカライズするために,マスクの自動最適化のための学習可能なアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-28T05:32:22Z) - RAF: Recursive Adversarial Attacks on Face Recognition Using Extremely
Limited Queries [2.8532545355403123]
近年の顔認識に対する敵対的攻撃の成功は、顔認識モデルの顕著な進歩にもかかわらず、認識と認識のための人間の知性にはまだ及ばないことを示している。
本稿では,ターゲットモデルを騙すために,極めて限られたクエリ数を必要とする自動顔整形を提案する。
決定に基づくブラックボックス攻撃設定における提案手法のロバスト性を評価する。
論文 参考訳(メタデータ) (2022-07-04T00:22:45Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。