論文の概要: Generating Transferable and Stealthy Adversarial Patch via
Attention-guided Adversarial Inpainting
- arxiv url: http://arxiv.org/abs/2308.05320v2
- Date: Sun, 1 Oct 2023 09:14:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 13:33:27.255361
- Title: Generating Transferable and Stealthy Adversarial Patch via
Attention-guided Adversarial Inpainting
- Title(参考訳): 注意誘導広告表示による移動性およびステルス性広告パッチの生成
- Authors: Yanjie Li, Mingxing Duan, Xuelong Dai, Bin Xiao
- Abstract要約: 本稿では,Adv-Inpaintingと呼ばれる2段階の対向パッチ攻撃を提案する。
第1段階では,攻撃者からそれぞれスタイル特徴と識別特徴を抽出する。
提案するレイヤは、優先コンテキスト情報を完全に活用することにより、アイデンティティとスタイルの埋め込みを適応的に融合させることができる。
第2段階では,新たな境界分散損失を有するAPR-Net(Adversarial Patch Refinement Network)を設計する。
- 参考スコア(独自算出の注目度): 12.974292128917222
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial patch attacks can fool the face recognition (FR) models via small
patches. However, previous adversarial patch attacks often result in unnatural
patterns that are easily noticeable. Generating transferable and stealthy
adversarial patches that can efficiently deceive the black-box FR models while
having good camouflage is challenging because of the huge stylistic difference
between the source and target images. To generate transferable,
natural-looking, and stealthy adversarial patches, we propose an innovative
two-stage attack called Adv-Inpainting, which extracts style features and
identity features from the attacker and target faces, respectively and then
fills the patches with misleading and inconspicuous content guided by attention
maps. In the first stage, we extract multi-scale style embeddings by a
pyramid-like network and identity embeddings by a pretrained FR model and
propose a novel Attention-guided Adaptive Instance Normalization layer (AAIN)
to merge them via background-patch cross-attention maps. The proposed layer can
adaptively fuse identity and style embeddings by fully exploiting priority
contextual information. In the second stage, we design an Adversarial Patch
Refinement Network (APR-Net) with a novel boundary variance loss, a spatial
discounted reconstruction loss, and a perceptual loss to boost the stealthiness
further. Experiments demonstrate that our attack can generate adversarial
patches with improved visual quality, better stealthiness, and stronger
transferability than state-of-the-art adversarial patch attacks and semantic
attacks.
- Abstract(参考訳): 敵パッチ攻撃は、小さなパッチを通じて顔認識(FR)モデルを騙すことができる。
しかし、以前の敵パッチ攻撃は、しばしば容易に気づく不自然なパターンをもたらす。
良好なカモフラージュを保ちながらブラックボックスFRモデルを効率よく欺くことができる転写性およびステルス性対向パッチの生成は、ソースとターゲット画像の間に大きな構造的違いがあるため、困難である。
移動可能で自然に見える、ステルス的な敵パッチを生成するために、アタッカーとターゲットの顔からそれぞれスタイルの特徴とアイデンティティの特徴を抽出し、アテンションマップで導かれる不明瞭なコンテンツでパッチを埋めるAdv-Inpaintingと呼ばれる革新的な2段階攻撃を提案する。
第1段階では、ピラミッド型ネットワークによるマルチスケール組込みと事前学習されたfrモデルによるアイデンティティ組込みを抽出し、背景パッチのクロスタッチマップを介してそれらをマージするための新しい注意誘導型適応インスタンス正規化層(aain)を提案する。
提案するレイヤは、優先コンテキスト情報を完全に活用することにより、アイデンティティとスタイルの埋め込みを適応的に融合させることができる。
第2段階では, 新たな境界分散損失, 空間割引再構成損失, 知覚的損失を伴って, ステルス性をさらに向上する, 対外パッチリファインメントネットワーク (APR-Net) を設計する。
実験により,視覚品質が向上し,ステルス性が向上し,最先端の対向パッチ攻撃やセマンティクス攻撃よりも転送性が向上した,対向パッチが生成できることが実証された。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Environmental Matching Attack Against Unmanned Aerial Vehicles Object Detection [37.77615360932841]
無人航空機の物体検出技術はディープニューラルネットワーク(DNN)に依存している
UAV領域の既存のアルゴリズムによって生成された敵パッチは、敵パッチの自然性にはほとんど注意を払わない。
本研究では,環境マッチング攻撃(EMA)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T09:56:57Z) - Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - Adversarial Pixel Restoration as a Pretext Task for Transferable
Perturbations [54.1807206010136]
トランスファー可能な敵攻撃は、事前訓練された代理モデルと既知のラベル空間から敵を最適化し、未知のブラックボックスモデルを騙す。
本稿では,効果的なサロゲートモデルをスクラッチからトレーニングするための自己教師型代替手段として,Adversarial Pixel Restorationを提案する。
我々のトレーニングアプローチは、敵の目標を通したオーバーフィッティングを減らすmin-maxの目標に基づいています。
論文 参考訳(メタデータ) (2022-07-18T17:59:58Z) - Task-agnostic Defense against Adversarial Patch Attacks [25.15948648034204]
対向パッチは、指定された局所領域内に対向画素を注入することにより、誤誘導ニューラルネットワークを攻撃する。
我々は、ホワイトボックスの敵パッチに対するタスク非依存の防御であるPatchZeroを提示する。
本手法は, 良性性能の劣化を伴わずに, SOTAの頑健な精度を実現する。
論文 参考訳(メタデータ) (2022-07-05T03:49:08Z) - Towards Transferable Adversarial Attacks on Vision Transformers [110.55845478440807]
視覚変換器(ViT)は、コンピュータビジョンの一連のタスクにおいて印象的なパフォーマンスを示してきたが、それでも敵の例に悩まされている。
本稿では、PNA攻撃とPatchOut攻撃を含むデュアルアタックフレームワークを導入し、異なるViT間での対向サンプルの転送性を改善する。
論文 参考訳(メタデータ) (2021-09-09T11:28:25Z) - Inconspicuous Adversarial Patches for Fooling Image Recognition Systems
on Mobile Devices [8.437172062224034]
敵パッチと呼ばれる敵の例の変種は、強力な攻撃能力のために研究者の注意を引き付けている。
1枚の画像で逆パッチを生成する手法を提案する。
提案手法は,ホワイトボックス設定における強力な攻撃能力とブラックボックス設定における優れた転送性を示す。
論文 参考訳(メタデータ) (2021-06-29T09:39:34Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Towards Feature Space Adversarial Attack [18.874224858723494]
本稿では,画像分類のためのニューラルネットに対する新たな敵攻撃を提案する。
私たちの攻撃は、抽象的な特徴、具体的にはスタイルを表す特徴の摂動に焦点を当てています。
我々の攻撃は、最先端の攻撃よりも自然に見える敵のサンプルを生成できることを示す。
論文 参考訳(メタデータ) (2020-04-26T13:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。