論文の概要: Improving Adversarial Transferability with Scheduled Step Size and Dual
Example
- arxiv url: http://arxiv.org/abs/2301.12968v1
- Date: Mon, 30 Jan 2023 15:13:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 14:15:04.208986
- Title: Improving Adversarial Transferability with Scheduled Step Size and Dual
Example
- Title(参考訳): スケジューリングステップサイズと二重例による逆転送性の向上
- Authors: Zeliang Zhang, Peihan Liu, Xiaosen Wang and Chenliang Xu
- Abstract要約: 反復型高速勾配符号法により生じる逆例の転送性は,反復数の増加に伴って低下傾向を示すことを示す。
本稿では,スケジューリングステップサイズとデュアルサンプル(SD)を用いて,良性サンプル近傍の対角情報を完全に活用する新しい戦略を提案する。
提案手法は,既存の対向攻撃手法と容易に統合でき,対向移動性が向上する。
- 参考スコア(独自算出の注目度): 33.00528131208799
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are widely known to be vulnerable to adversarial
examples, especially showing significantly poor performance on adversarial
examples generated under the white-box setting. However, most white-box attack
methods rely heavily on the target model and quickly get stuck in local optima,
resulting in poor adversarial transferability. The momentum-based methods and
their variants are proposed to escape the local optima for better
transferability. In this work, we notice that the transferability of
adversarial examples generated by the iterative fast gradient sign method
(I-FGSM) exhibits a decreasing trend when increasing the number of iterations.
Motivated by this finding, we argue that the information of adversarial
perturbations near the benign sample, especially the direction, benefits more
on the transferability. Thus, we propose a novel strategy, which uses the
Scheduled step size and the Dual example (SD), to fully utilize the adversarial
information near the benign sample. Our proposed strategy can be easily
integrated with existing adversarial attack methods for better adversarial
transferability. Empirical evaluations on the standard ImageNet dataset
demonstrate that our proposed method can significantly enhance the
transferability of existing adversarial attacks.
- Abstract(参考訳): ディープニューラルネットワークは、特にホワイトボックス設定下で生成された敵の例で、かなり低いパフォーマンスを示す、敵の例に弱いことが広く知られている。
しかし、ほとんどのホワイトボックス攻撃法はターゲットモデルに大きく依存しており、すぐに局所最適状態に陥り、敵の移動性が低下する。
運動量に基づく手法とその変種は、より優れた伝達性のために局所最適化から逃れるために提案されている。
本研究では,反復型高速勾配符号法 (I-FGSM) によって生じる逆例の転送性は,反復数の増加に伴って低下傾向を示す。
この発見に触発されて、良性試料の近傍の対向摂動に関する情報、特に方向は、伝達可能性により多くの恩恵をもたらすと論じる。
そこで本研究では,スケジュールされたステップサイズとデュアルサンプル(sd)を用いて,良性標本近傍の敵情報を完全に活用する新しい戦略を提案する。
提案手法は,既存の対向攻撃手法と容易に統合でき,対向移動性が向上する。
標準のimagenetデータセットにおける経験的評価は、提案手法が既存の敵攻撃の転送性を大幅に向上できることを示しています。
関連論文リスト
- Boosting the Targeted Transferability of Adversarial Examples via Salient Region & Weighted Feature Drop [2.176586063731861]
敵攻撃に対する一般的なアプローチは、敵の例の転送可能性に依存する。
SWFD(Salient Region & Weighted Feature Drop)をベースとした新しいフレームワークは,敵対的事例のターゲット転送可能性を高める。
論文 参考訳(メタデータ) (2024-11-11T08:23:37Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Improving Adversarial Transferability with Neighbourhood Gradient Information [20.55829486744819]
ディープニューラルネットワーク(DNN)は、敵の例に影響を受けやすいため、パフォーマンスが著しく低下する。
本研究は、この性能ギャップを狭めるために、敵の例の転送可能性を高めることに焦点を当てる。
事例追跡と多重マスク戦略を取り入れたNGI-Attackを提案する。
論文 参考訳(メタデータ) (2024-08-11T10:46:49Z) - Efficient Generation of Targeted and Transferable Adversarial Examples for Vision-Language Models Via Diffusion Models [17.958154849014576]
大規模視覚言語モデル(VLM)のロバスト性を評価するために、敵対的攻撃を用いることができる。
従来のトランスファーベースの敵攻撃は、高いイテレーション数と複雑なメソッド構造により、高いコストを発生させる。
本稿では, 拡散モデルを用いて, 自然, 制約のない, 対象とする対向的な例を生成するAdvDiffVLMを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:19:52Z) - Bag of Tricks to Boost Adversarial Transferability [5.803095119348021]
ホワイトボックス設定で生成された逆例は、しばしば異なるモデル間で低い転送可能性を示す。
そこで本研究では,既存の敵攻撃の微妙な変化が攻撃性能に大きく影響することを発見した。
既存の敵攻撃の綿密な研究に基づいて、敵の移動性を高めるためのトリックの袋を提案する。
論文 参考訳(メタデータ) (2024-01-16T17:42:36Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Improving Adversarial Transferability by Stable Diffusion [36.97548018603747]
敵対的な例は 良心サンプルに 知覚不能な摂動を導入 予測を欺く
ディープニューラルネットワーク(Deep Neural Network, DNN)は、良性サンプルに知覚不能な摂動を導入し、予測を誤認する敵の例に影響を受けやすい。
本稿では,SDAM(Stable Diffusion Attack Method)と呼ばれる新しい攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T09:10:07Z) - Improving Adversarial Transferability via Intermediate-level
Perturbation Decay [79.07074710460012]
我々は,一段階の最適化で敵の例を再現する新しい中間レベル手法を開発した。
実験結果から, 種々の犠牲者モデルに対する攻撃において, 最先端技術よりも大きな差が認められた。
論文 参考訳(メタデータ) (2023-04-26T09:49:55Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Boosting Adversarial Transferability through Enhanced Momentum [50.248076722464184]
深層学習モデルは、人間の知覚できない摂動を良心的なイメージに加えることで、敵の例に弱い。
さまざまな運動量反復勾配に基づく方法が逆転性を改善するのに有効であることが示されている。
本稿では,逆伝達性をさらに高めるために,運動量反復勾配に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-19T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。