論文の概要: Enhancing Adversarial Transferability by Balancing Exploration and Exploitation with Gradient-Guided Sampling
- arxiv url: http://arxiv.org/abs/2511.00411v1
- Date: Sat, 01 Nov 2025 05:43:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.761312
- Title: Enhancing Adversarial Transferability by Balancing Exploration and Exploitation with Gradient-Guided Sampling
- Title(参考訳): グラディエント誘導サンプリングによる探索と爆発のバランスをとることで対向移動性を高める
- Authors: Zenghao Niu, Weicheng Xie, Siyang Song, Zitong Yu, Feng Liu, Linlin Shen,
- Abstract要約: アドリアックは、ディープニューラルネットワークの堅牢性にとって重要な課題である。
敵攻撃の伝達性は、爆発(最大攻撃能力)と探索(クロスモデル一般化の促進)のジレンマに直面している
- 参考スコア(独自算出の注目度): 82.52485740425321
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Adversarial attacks present a critical challenge to deep neural networks' robustness, particularly in transfer scenarios across different model architectures. However, the transferability of adversarial attacks faces a fundamental dilemma between Exploitation (maximizing attack potency) and Exploration (enhancing cross-model generalization). Traditional momentum-based methods over-prioritize Exploitation, i.e., higher loss maxima for attack potency but weakened generalization (narrow loss surface). Conversely, recent methods with inner-iteration sampling over-prioritize Exploration, i.e., flatter loss surfaces for cross-model generalization but weakened attack potency (suboptimal local maxima). To resolve this dilemma, we propose a simple yet effective Gradient-Guided Sampling (GGS), which harmonizes both objectives through guiding sampling along the gradient ascent direction to improve both sampling efficiency and stability. Specifically, based on MI-FGSM, GGS introduces inner-iteration random sampling and guides the sampling direction using the gradient from the previous inner-iteration (the sampling's magnitude is determined by a random distribution). This mechanism encourages adversarial examples to reside in balanced regions with both flatness for cross-model generalization and higher local maxima for strong attack potency. Comprehensive experiments across multiple DNN architectures and multimodal large language models (MLLMs) demonstrate the superiority of our method over state-of-the-art transfer attacks. Code is made available at https://github.com/anuin-cat/GGS.
- Abstract(参考訳): 敵対的攻撃は、ディープニューラルネットワークの堅牢性、特に異なるモデルアーキテクチャ間の転送シナリオにおいて、重要な課題となる。
しかし、敵攻撃の伝達性は、爆発(攻撃能力の最大化)と探索(クロスモデル一般化の強化)の基本的なジレンマに直面している。
従来の運動量に基づく手法は爆発を過剰に優先順位付けし、すなわち攻撃能力の最大損失を最大化するが、一般化を弱める(狭い損失面)。
逆に、近年のインナー・イテレーションサンプリングによる探索、すなわち、クロスモデル一般化のための平坦な損失面は、攻撃力の弱化(最適局所最大値)である。
このジレンマを解決するために,勾配上昇方向のサンプリングを誘導し,サンプリング効率と安定性を両立させる,シンプルで効果的なグラディエントガイドサンプリング(GGS)を提案する。
特に、MI-FGSMに基づいて、GGSはインナーイテレーションランダムサンプリングを導入し、前回のインナーイテレーションからの勾配を用いてサンプリング方向を誘導する(サンプリングの大きさはランダム分布によって決定される)。
このメカニズムは、モデル間の一般化のための平坦性と強力な攻撃能力のための局所的な最大値の両方のバランスの取れた領域に敵の例を配置することを奨励する。
複数のDNNアーキテクチャとマルチモーダル大言語モデル(MLLM)を網羅した総合実験により,我々の手法が最先端の転送攻撃よりも優れていることを示す。
コードはhttps://github.com/anuin-cat/GGSで公開されている。
関連論文リスト
- Ctrl-Z Sampling: Diffusion Sampling with Controlled Random Zigzag Explorations [17.357140159249496]
本稿では,局所的な急激な最大値の検出と回避を適応的に行う新しいサンプリング戦略を提案する。
Ctrl-Zサンプリングは生成品質を著しく向上するが,元のNFEの7.72倍程度しか必要としないことを示す。
論文 参考訳(メタデータ) (2025-06-25T10:01:00Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Boosting Adversarial Transferability by Achieving Flat Local Maxima [23.91315978193527]
近年、様々な敵の攻撃が出現し、異なる視点から敵の移動可能性を高めている。
本研究では, 平坦な局所領域における逆例が良好な伝達性を持つ傾向があることを仮定し, 実証的に検証する。
目的関数の勾配更新を簡略化する近似最適化法を提案する。
論文 参考訳(メタデータ) (2023-06-08T14:21:02Z) - Strong Transferable Adversarial Attacks via Ensembled Asymptotically Normal Distribution Learning [24.10329164911317]
多重漸近正規分布攻撃(MultiANDA)という手法を提案する。
我々は勾配上昇(SGA)の正規性を利用して摂動の後方分布を近似する。
提案手法は、防御の有無にかかわらず、ディープラーニングモデルに対する10の最先端のブラックボックス攻撃より優れる。
論文 参考訳(メタデータ) (2022-09-24T08:57:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。