論文の概要: Towards Transferable Adversarial Attacks with Centralized Perturbation
- arxiv url: http://arxiv.org/abs/2312.06199v2
- Date: Sat, 23 Dec 2023 06:35:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 21:10:17.485542
- Title: Towards Transferable Adversarial Attacks with Centralized Perturbation
- Title(参考訳): 集中摂動による移動可能な敵攻撃に向けて
- Authors: Shangbo Wu, Yu-an Tan, Yajie Wang, Ruinan Ma, Wencong Ma and Yuanzhang
Li
- Abstract要約: 逆転性により未知のディープニューラルネットワーク(DNN)に対するブラックボックス攻撃が可能に
現行の転送可能な攻撃は、画像全体に対する敵の摂動を引き起こし、結果として過度なノイズが発生し、ソースモデルに過度に適合する。
本稿では,周波数領域における微細な摂動を最適化し,集中的な摂動を生成するトランスファー可能な対向攻撃を提案する。
- 参考スコア(独自算出の注目度): 4.689122927344728
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Adversarial transferability enables black-box attacks on unknown victim deep
neural networks (DNNs), rendering attacks viable in real-world scenarios.
Current transferable attacks create adversarial perturbation over the entire
image, resulting in excessive noise that overfit the source model.
Concentrating perturbation to dominant image regions that are model-agnostic is
crucial to improving adversarial efficacy. However, limiting perturbation to
local regions in the spatial domain proves inadequate in augmenting
transferability. To this end, we propose a transferable adversarial attack with
fine-grained perturbation optimization in the frequency domain, creating
centralized perturbation. We devise a systematic pipeline to dynamically
constrain perturbation optimization to dominant frequency coefficients. The
constraint is optimized in parallel at each iteration, ensuring the directional
alignment of perturbation optimization with model prediction. Our approach
allows us to centralize perturbation towards sample-specific important
frequency features, which are shared by DNNs, effectively mitigating source
model overfitting. Experiments demonstrate that by dynamically centralizing
perturbation on dominating frequency coefficients, crafted adversarial examples
exhibit stronger transferability, and allowing them to bypass various defenses.
- Abstract(参考訳): adversarial transferabilityは、未知の被害者ディープニューラルネットワーク(dnn)に対するブラックボックス攻撃を可能にし、現実世界のシナリオで実行可能な攻撃をレンダリングする。
現在の転送可能攻撃は、画像全体に敵対的な摂動を引き起こし、ソースモデルに過剰なノイズをもたらします。
モデルに依存しない支配的な画像領域に摂動を集中させることは、対向効果を改善するために重要である。
しかし、空間領域内の局所領域への摂動の制限は、転送可能性の増大に不十分であることを示す。
そこで本研究では,周波数領域に細粒度摂動最適化を施した移動可能な逆攻撃を提案し,集中摂動を生成する。
摂動最適化を支配的周波数係数に動的に制約する系統的パイプラインを考案する。
制約は各イテレーションで並列に最適化され、モデル予測と摂動最適化の方向アライメントを保証する。
提案手法により,DNNが共有するサンプル固有の重要な周波数特徴に対する摂動を集中化し,ソースモデルの過度な適合を効果的に緩和する。
実験により, 支配周波数係数に摂動を動的に集中させることにより, 対向型実例はより強い伝達性を示し, 種々の防御を回避できることが示されている。
関連論文リスト
- A Tunable Despeckling Neural Network Stabilized via Diffusion Equation [15.996302571895045]
ガンマノイズ除去は合成開口レーダ(SAR)イメージングの応用において重要な研究領域である。
本稿では,正規化ユニットと正規化ユニットを1つのネットワークにアンロールして,エンドツーエンドのトレーニングを行う,チューニング可能な正規化ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T17:08:43Z) - Improving Transferable Targeted Attacks with Feature Tuning Mixup [12.707753562907534]
ディープニューラルネットワークは、異なるモデル間で転送可能な例に脆弱性を示す。
ターゲットの攻撃伝達性を高めるために,FTM(Feature Tuning Mixup)を提案する。
提案手法は,計算コストを低く抑えつつ,最先端の手法よりも大幅に向上する。
論文 参考訳(メタデータ) (2024-11-23T13:18:25Z) - FACL-Attack: Frequency-Aware Contrastive Learning for Transferable Adversarial Attacks [42.18755809782401]
ディープニューラルネットワークは、敵対的な例の本質的に伝達可能な性質のため、セキュリティリスクに弱いことが知られている。
本稿では,周波数領域において,クロスドメインとクロスモデルの両方でロバストな逆例を生成するための特徴的対照的なアプローチを提案する。
我々は,大規模なクロスドメインおよびクロスモデル実験を通じて生成した対向摂動の強い伝達性を示す。
論文 参考訳(メタデータ) (2024-07-30T08:50:06Z) - Improving Adversarial Transferability by Stable Diffusion [36.97548018603747]
敵対的な例は 良心サンプルに 知覚不能な摂動を導入 予測を欺く
ディープニューラルネットワーク(Deep Neural Network, DNN)は、良性サンプルに知覚不能な摂動を導入し、予測を誤認する敵の例に影響を受けやすい。
本稿では,SDAM(Stable Diffusion Attack Method)と呼ばれる新しい攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T09:10:07Z) - Improving Adversarial Transferability via Intermediate-level
Perturbation Decay [79.07074710460012]
我々は,一段階の最適化で敵の例を再現する新しい中間レベル手法を開発した。
実験結果から, 種々の犠牲者モデルに対する攻撃において, 最先端技術よりも大きな差が認められた。
論文 参考訳(メタデータ) (2023-04-26T09:49:55Z) - Ada3Diff: Defending against 3D Adversarial Point Clouds via Adaptive
Diffusion [70.60038549155485]
ディープ3Dポイントクラウドモデルは敵攻撃に敏感であり、自律運転のような安全クリティカルなアプリケーションに脅威をもたらす。
本稿では,適応強度推定器と拡散モデルを用いて,プリスタンデータ分布を再構築できる新しい歪み認識型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-29T14:32:43Z) - Enhancing the Self-Universality for Transferable Targeted Attacks [88.6081640779354]
本手法は,高次対角的摂動が標的攻撃に対してより伝達しやすい傾向にあることを示す。
異なる画像上の摂動を最適化する代わりに、異なる領域を最適化して自己ユニバーシティを実現することで、余分なデータを排除することができる。
特徴的類似性欠如により,本手法は,良性画像よりも対向性摂動の特徴が支配的となる。
論文 参考訳(メタデータ) (2022-09-08T11:21:26Z) - Diverse Generative Adversarial Perturbations on Attention Space for
Transferable Adversarial Attacks [29.034390810078172]
トランスファービリティを向上したアドリアック攻撃は、最近その実用性から多くの注目を集めている。
既存の移動可能な攻撃は決定論的に摂動を発生させ、しばしば損失面の完全な探索に失敗する。
本稿では,トランスファービリティの向上を図るために,多種多様な特徴を阻害するAttentive-Diversity Attack (ADA)を提案する。
論文 参考訳(メタデータ) (2022-08-11T06:00:40Z) - Exploring Transferable and Robust Adversarial Perturbation Generation
from the Perspective of Network Hierarchy [52.153866313879924]
敵の例の移動可能性と堅牢性は、ブラックボックスの敵攻撃の実用的かつ重要な2つの性質である。
伝送可能で頑健な逆生成法(TRAP)を提案する。
我々のTRAPは、ある種の干渉に対して印象的な伝達性と高い堅牢性を実現する。
論文 参考訳(メタデータ) (2021-08-16T11:52:41Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z) - Perturbing Across the Feature Hierarchy to Improve Standard and Strict
Blackbox Attack Transferability [100.91186458516941]
我々は、ディープニューラルネットワーク(DNN)画像分類器の領域におけるブラックボックス転送に基づく敵攻撃脅威モデルを検討する。
我々は,多層摂動が可能なフレキシブルアタックフレームワークを設計し,最先端のターゲット転送性能を示す。
提案手法が既存の攻撃戦略より優れている理由を解析し,ブラックボックスモデルに対する限られたクエリが許された場合に,メソッドの拡張を示す。
論文 参考訳(メタデータ) (2020-04-29T16:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。