論文の概要: Diverse Generative Adversarial Perturbations on Attention Space for
Transferable Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2208.05650v1
- Date: Thu, 11 Aug 2022 06:00:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 13:19:14.593686
- Title: Diverse Generative Adversarial Perturbations on Attention Space for
Transferable Adversarial Attacks
- Title(参考訳): 移動可能な対向攻撃に対する注意空間における異種逆向摂動
- Authors: Woo Jae Kim, Seunghoon Hong, and Sung-Eui Yoon
- Abstract要約: トランスファービリティを向上したアドリアック攻撃は、最近その実用性から多くの注目を集めている。
既存の移動可能な攻撃は決定論的に摂動を発生させ、しばしば損失面の完全な探索に失敗する。
本稿では,トランスファービリティの向上を図るために,多種多様な特徴を阻害するAttentive-Diversity Attack (ADA)を提案する。
- 参考スコア(独自算出の注目度): 29.034390810078172
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial attacks with improved transferability - the ability of an
adversarial example crafted on a known model to also fool unknown models - have
recently received much attention due to their practicality. Nevertheless,
existing transferable attacks craft perturbations in a deterministic manner and
often fail to fully explore the loss surface, thus falling into a poor local
optimum and suffering from low transferability. To solve this problem, we
propose Attentive-Diversity Attack (ADA), which disrupts diverse salient
features in a stochastic manner to improve transferability. Primarily, we
perturb the image attention to disrupt universal features shared by different
models. Then, to effectively avoid poor local optima, we disrupt these features
in a stochastic manner and explore the search space of transferable
perturbations more exhaustively. More specifically, we use a generator to
produce adversarial perturbations that each disturbs features in different ways
depending on an input latent code. Extensive experimental evaluations
demonstrate the effectiveness of our method, outperforming the transferability
of state-of-the-art methods. Codes are available at
https://github.com/wkim97/ADA.
- Abstract(参考訳): トランスファービリティを改善した敵攻撃 - 既知のモデルで構築された敵の例が未知のモデルを騙す能力 - は、最近、その実用性から多くの注目を集めている。
それでも、既存の移動可能な攻撃は決定論的に摂動を発生させ、しばしば損失面の完全な探索に失敗し、結果として局所的な最適な状態に陥り、転送可能性の低下に悩まされる。
そこで本研究では,多彩な特徴を確率的に破壊し,伝達性を向上する Attentive-Diversity Attack (ADA) を提案する。
主に、さまざまなモデルで共有されるdisrupt universal機能に対するイメージの注意を揺るがします。
そして,局所視能の悪さを効果的に回避するために,これらの特徴を確率的に破壊し,移動可能な摂動の探索空間をより徹底的に探索する。
より具体的には、我々はジェネレータを使用して、入力潜時コードに依存する異なる方法で特徴を乱す逆の摂動を生成する。
また,本手法の有効性を実験的に検証し,その効果を実証した。
コードはhttps://github.com/wkim97/adaで入手できる。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Towards Transferable Adversarial Attacks with Centralized Perturbation [4.689122927344728]
逆転性により未知のディープニューラルネットワーク(DNN)に対するブラックボックス攻撃が可能に
現行の転送可能な攻撃は、画像全体に対する敵の摂動を引き起こし、結果として過度なノイズが発生し、ソースモデルに過度に適合する。
本稿では,周波数領域における微細な摂動を最適化し,集中的な摂動を生成するトランスファー可能な対向攻撃を提案する。
論文 参考訳(メタデータ) (2023-12-11T08:25:50Z) - Diffusion Models for Imperceptible and Transferable Adversarial Attack [23.991194050494396]
本稿では,拡散モデルの生成的および識別的パワーを両立させることにより,新たな非受容的かつ伝達可能な攻撃を提案する。
提案手法であるDiffAttackは,対向攻撃場に拡散モデルを導入する最初の方法である。
論文 参考訳(メタデータ) (2023-05-14T16:02:36Z) - Enhancing the Self-Universality for Transferable Targeted Attacks [88.6081640779354]
本手法は,高次対角的摂動が標的攻撃に対してより伝達しやすい傾向にあることを示す。
異なる画像上の摂動を最適化する代わりに、異なる領域を最適化して自己ユニバーシティを実現することで、余分なデータを排除することができる。
特徴的類似性欠如により,本手法は,良性画像よりも対向性摂動の特徴が支配的となる。
論文 参考訳(メタデータ) (2022-09-08T11:21:26Z) - Transferable Physical Attack against Object Detection with Separable
Attention [14.805375472459728]
ディープラーニングモデルは、敵のサンプルに弱いことが証明されているため、トランスファー可能な敵攻撃は常に注目されている。
本稿では,物理的に実現可能な逆カモフラージュを生成する新しい手法を提案し,検出モデルに対するトランスファー可能な攻撃を実現する。
論文 参考訳(メタデータ) (2022-05-19T14:34:55Z) - Enhancing the Transferability via Feature-Momentum Adversarial Attack [36.449154438599884]
本稿では,FMAA(Feature-Momentum Adversarial Attack)と呼ばれる新しい手法について述べる。
提案手法は,異なる対象モデルに対して高いマージンで,他の最先端手法よりも大幅に優れる。
論文 参考訳(メタデータ) (2022-04-22T09:52:49Z) - Exploring Transferable and Robust Adversarial Perturbation Generation
from the Perspective of Network Hierarchy [52.153866313879924]
敵の例の移動可能性と堅牢性は、ブラックボックスの敵攻撃の実用的かつ重要な2つの性質である。
伝送可能で頑健な逆生成法(TRAP)を提案する。
我々のTRAPは、ある種の干渉に対して印象的な伝達性と高い堅牢性を実現する。
論文 参考訳(メタデータ) (2021-08-16T11:52:41Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Query-Free Adversarial Transfer via Undertrained Surrogates [14.112444998191698]
本研究では,ブラックボックス環境における敵攻撃の有効性を改善するための新しい手法を提案する。
本稿では, この手法がアーキテクチャ全体にわたって良好に伝達し, 最先端の手法よりも広いマージンで性能を向上することを示す。
論文 参考訳(メタデータ) (2020-07-01T23:12:22Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。