論文の概要: Improving Integrated Gradient-based Transferable Adversarial Examples by Refining the Integration Path
- arxiv url: http://arxiv.org/abs/2412.18844v1
- Date: Wed, 25 Dec 2024 09:15:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:29:08.962513
- Title: Improving Integrated Gradient-based Transferable Adversarial Examples by Refining the Integration Path
- Title(参考訳): 積分経路の精細化によるグラディエントベース変換可能な逆数例の改善
- Authors: Yuchen Ren, Zhengyu Zhao, Chenhao Lin, Bo Yang, Lu Zhou, Zhe Liu, Chao Shen,
- Abstract要約: 移動可能な敵の例は、実用的なブラックボックス攻撃のシナリオで脅威を引き起こすことが知られている。
既存のIGベースの攻撃は、モデル解釈可能性におけるIGの素早い採用により、転送可能性に制限がある。
我々は,高度に伝達可能な逆数例を生成できるMultiple Monotonic Diversified Integrated Gradients (MuMoDIG)攻撃を提案する。
- 参考スコア(独自算出の注目度): 17.496082209866923
- License:
- Abstract: Transferable adversarial examples are known to cause threats in practical, black-box attack scenarios. A notable approach to improving transferability is using integrated gradients (IG), originally developed for model interpretability. In this paper, we find that existing IG-based attacks have limited transferability due to their naive adoption of IG in model interpretability. To address this limitation, we focus on the IG integration path and refine it in three aspects: multiplicity, monotonicity, and diversity, supported by theoretical analyses. We propose the Multiple Monotonic Diversified Integrated Gradients (MuMoDIG) attack, which can generate highly transferable adversarial examples on different CNN and ViT models and defenses. Experiments validate that MuMoDIG outperforms the latest IG-based attack by up to 37.3\% and other state-of-the-art attacks by 8.4\%. In general, our study reveals that migrating established techniques to improve transferability may require non-trivial efforts. Code is available at \url{https://github.com/RYC-98/MuMoDIG}.
- Abstract(参考訳): 移動可能な敵の例は、実用的なブラックボックス攻撃のシナリオで脅威を引き起こすことが知られている。
転送可能性を改善するための注目すべきアプローチは、元々モデル解釈可能性のために開発された統合勾配(IG)を使用することである。
本稿では,既存のIGベースの攻撃は,モデル解釈可能性においてIGが素直に採用されているため,転送可能性に制限があることを見出した。
この制限に対処するために、IG積分経路に注目し、理論解析によって支持される乗法、単調性、多様性の3つの側面でそれを洗練する。
我々は,CNN と ViT の異なるモデルとディフェンスに対して,高度に伝達可能な逆の例を生成できる,Multiple Monotonic Diversified Integrated Gradients (MuMoDIG) 攻撃を提案する。
MuMoDIGは最新のIGベースの攻撃を最大37.3\%、その他の最先端攻撃を8.4\%で上回っている。
概して, 移動性を向上させるために確立された技術への移行には, 自明な努力を要する可能性がある。
コードは \url{https://github.com/RYC-98/MuMoDIG} で入手できる。
関連論文リスト
- AIM: Additional Image Guided Generation of Transferable Adversarial Attacks [72.24101555828256]
トランスファー可能な敵の例は、さまざまな現実世界のアプリケーションにまたがる知覚できない摂動に対するディープニューラルネットワーク(DNN)の脆弱性を強調している。
本研究は,ターゲットの移動可能な攻撃に対する生成的アプローチに焦点を当てる。
本稿では,汎用ジェネレータアーキテクチャに新しいプラグイン・アンド・プレイモジュールを導入し,対向トランスファビリティを向上する。
論文 参考訳(メタデータ) (2025-01-02T07:06:49Z) - Enhancing Transferability of Adversarial Attacks with GE-AdvGAN+: A Comprehensive Framework for Gradient Editing [12.131163373757383]
転送可能な敵攻撃は、ディープニューラルネットワークに重大な脅威をもたらす。
本稿では、GE-AdvGAN+という、勾配編集に基づく転送可能な攻撃のための新しいフレームワークを提案する。
我々のフレームワークは、ほとんどすべての主流攻撃手法を統合し、転送可能性を高めながら、計算資源の消費を大幅に削減する。
論文 参考訳(メタデータ) (2024-08-22T18:26:31Z) - Improving Adversarial Transferability with Neighbourhood Gradient Information [20.55829486744819]
ディープニューラルネットワーク(DNN)は、敵の例に影響を受けやすいため、パフォーマンスが著しく低下する。
本研究は、この性能ギャップを狭めるために、敵の例の転送可能性を高めることに焦点を当てる。
事例追跡と多重マスク戦略を取り入れたNGI-Attackを提案する。
論文 参考訳(メタデータ) (2024-08-11T10:46:49Z) - Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - Transferable Adversarial Attacks on Vision Transformers with Token
Gradient Regularization [32.908816911260615]
ビジョントランス (ViT) は様々なコンピュータビジョンタスクにうまく展開されているが、それでも敵のサンプルには弱い。
転送ベースの攻撃は、ローカルモデルを使用して敵のサンプルを生成し、ターゲットのブラックボックスモデルを攻撃するために直接転送する。
本稿では,既存のアプローチの欠点を克服するために,Token Gradient Regularization (TGR)法を提案する。
論文 参考訳(メタデータ) (2023-03-28T06:23:17Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Boosting the Transferability of Adversarial Attacks with Global Momentum Initialization [23.13302900115702]
敵対的な例は、良心的な入力に人間の知覚能力を加えることで作られる。
敵の例では、モデル間での転送可能性を示し、実用的なブラックボックス攻撃を可能にしている。
我々は,Global Momentum Initialization (GI)を導入し,勾配除去を緩和するためのグローバルモメンタム知識を提供する。
GIは既存の転送手法とシームレスに統合され、平均6.4%の転送攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-11-21T07:59:22Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。