論文の概要: Adv-Inpainting: Generating Natural and Transferable Adversarial Patch
via Attention-guided Feature Fusion
- arxiv url: http://arxiv.org/abs/2308.05320v1
- Date: Thu, 10 Aug 2023 03:44:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 13:47:59.487315
- Title: Adv-Inpainting: Generating Natural and Transferable Adversarial Patch
via Attention-guided Feature Fusion
- Title(参考訳): Adv-Inpainting:注意誘導型特徴融合による自然および伝達可能な対向パッチの生成
- Authors: Yanjie Li, Mingxing Duan, Bin Xiao
- Abstract要約: 本稿では,Adv-Inpaintingと呼ばれる2段階間粗大攻撃フレームワークを提案する。
最初の段階では,テクスチャとアイデンティティを適応的に組み合わせた注意誘導型スタイルGANを提案する。
第2段階では、パッチとその周辺領域とのコヒーレンスをさらに向上するため、新しい境界分散損失を有する精細化ネットワークを設計する。
- 参考スコア(独自算出の注目度): 14.61699544548097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rudimentary adversarial attacks utilize additive noise to attack facial
recognition (FR) models. However, because manipulating the total face is
impractical in the physical setting, most real-world FR attacks are based on
adversarial patches, which limit perturbations to a small area. Previous
adversarial patch attacks often resulted in unnatural patterns and clear
boundaries that were easily noticeable. In this paper, we argue that generating
adversarial patches with plausible content can result in stronger
transferability than using additive noise or directly sampling from the latent
space. To generate natural-looking and highly transferable adversarial patches,
we propose an innovative two-stage coarse-to-fine attack framework called
Adv-Inpainting. In the first stage, we propose an attention-guided StyleGAN
(Att-StyleGAN) that adaptively combines texture and identity features based on
the attention map to generate high-transferable and natural adversarial
patches. In the second stage, we design a refinement network with a new
boundary variance loss to further improve the coherence between the patch and
its surrounding area. Experiment results demonstrate that Adv-Inpainting is
stealthy and can produce adversarial patches with stronger transferability and
improved visual quality than previous adversarial patch attacks.
- Abstract(参考訳): 初歩的な敵対攻撃は、付加雑音を利用して顔認識(FR)モデルを攻撃する。
しかし、顔全体の操作は物理的設定では現実的ではないため、現実世界のFR攻撃のほとんどは、小さな領域に摂動を制限する敵のパッチに基づいている。
以前の敵対的パッチ攻撃は、しばしば不自然なパターンとわかりやすい境界を生み出した。
本稿では, 可塑性成分を用いた対向パッチの生成は, 付加雑音や潜時空間からの直接サンプリングよりも強い伝達性をもたらすと論じる。
自然に見え、高い転送可能な敵パッチを生成するために、Adv-Inpaintingと呼ばれる2段階間粗大攻撃フレームワークを提案する。
第1段階では,アテンションマップに基づくテクスチャとアイデンティティの特徴を適応的に組み合わせて,高透過性および自然対向パッチを生成する,アテンション誘導型スタイルGAN (Att-StyleGAN) を提案する。
第2段階では,パッチと周辺領域との一貫性をさらに向上させるために,新たな境界分散損失を伴う改良ネットワークを設計する。
実験の結果,advインペインティングはステルス性が高く,移動性が強く,視覚品質が向上した敵パッチを生成できることがわかった。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Environmental Matching Attack Against Unmanned Aerial Vehicles Object Detection [37.77615360932841]
無人航空機の物体検出技術はディープニューラルネットワーク(DNN)に依存している
UAV領域の既存のアルゴリズムによって生成された敵パッチは、敵パッチの自然性にはほとんど注意を払わない。
本研究では,環境マッチング攻撃(EMA)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T09:56:57Z) - Towards Robust Image Stitching: An Adaptive Resistance Learning against
Compatible Attacks [66.98297584796391]
画像縫合は、様々な視点から捉えた画像をシームレスに単一の視野画像に統合する。
一対の撮像画像が与えられたとき、人間の視覚システムに気づかない微妙な摂動と歪みは、対応の一致を攻撃しがちである。
本稿では,敵対的攻撃に対する画像縫合の堅牢性向上に向けた最初の試みについて述べる。
論文 参考訳(メタデータ) (2024-02-25T02:36:33Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - Adversarial Pixel Restoration as a Pretext Task for Transferable
Perturbations [54.1807206010136]
トランスファー可能な敵攻撃は、事前訓練された代理モデルと既知のラベル空間から敵を最適化し、未知のブラックボックスモデルを騙す。
本稿では,効果的なサロゲートモデルをスクラッチからトレーニングするための自己教師型代替手段として,Adversarial Pixel Restorationを提案する。
我々のトレーニングアプローチは、敵の目標を通したオーバーフィッティングを減らすmin-maxの目標に基づいています。
論文 参考訳(メタデータ) (2022-07-18T17:59:58Z) - Task-agnostic Defense against Adversarial Patch Attacks [25.15948648034204]
対向パッチは、指定された局所領域内に対向画素を注入することにより、誤誘導ニューラルネットワークを攻撃する。
我々は、ホワイトボックスの敵パッチに対するタスク非依存の防御であるPatchZeroを提示する。
本手法は, 良性性能の劣化を伴わずに, SOTAの頑健な精度を実現する。
論文 参考訳(メタデータ) (2022-07-05T03:49:08Z) - Towards Transferable Adversarial Attacks on Vision Transformers [110.55845478440807]
視覚変換器(ViT)は、コンピュータビジョンの一連のタスクにおいて印象的なパフォーマンスを示してきたが、それでも敵の例に悩まされている。
本稿では、PNA攻撃とPatchOut攻撃を含むデュアルアタックフレームワークを導入し、異なるViT間での対向サンプルの転送性を改善する。
論文 参考訳(メタデータ) (2021-09-09T11:28:25Z) - Inconspicuous Adversarial Patches for Fooling Image Recognition Systems
on Mobile Devices [8.437172062224034]
敵パッチと呼ばれる敵の例の変種は、強力な攻撃能力のために研究者の注意を引き付けている。
1枚の画像で逆パッチを生成する手法を提案する。
提案手法は,ホワイトボックス設定における強力な攻撃能力とブラックボックス設定における優れた転送性を示す。
論文 参考訳(メタデータ) (2021-06-29T09:39:34Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Towards Feature Space Adversarial Attack [18.874224858723494]
本稿では,画像分類のためのニューラルネットに対する新たな敵攻撃を提案する。
私たちの攻撃は、抽象的な特徴、具体的にはスタイルを表す特徴の摂動に焦点を当てています。
我々の攻撃は、最先端の攻撃よりも自然に見える敵のサンプルを生成できることを示す。
論文 参考訳(メタデータ) (2020-04-26T13:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。