論文の概要: Improving the Transferability of Adversarial Examples by Inverse Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2502.17003v1
- Date: Mon, 24 Feb 2025 09:35:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:59:01.684682
- Title: Improving the Transferability of Adversarial Examples by Inverse Knowledge Distillation
- Title(参考訳): 逆知識蒸留による逆例の伝達性の向上
- Authors: Wenyuan Wu, Zheng Liu, Yong Chen, Chao Su, Dezhong Peng, Xu Wang,
- Abstract要約: 逆知識蒸留(Inverse Knowledge Distillation, IKD)は, 対向移動性を効果的に向上するように設計されている。
IKDは勾配に基づく攻撃手法を統合し、攻撃勾配の多様性を促進し、特定のモデルアーキテクチャへの過度な適合を緩和する。
ImageNetデータセットの実験は、我々のアプローチの有効性を検証する。
- 参考スコア(独自算出の注目度): 15.362394334872077
- License:
- Abstract: In recent years, the rapid development of deep neural networks has brought increased attention to the security and robustness of these models. While existing adversarial attack algorithms have demonstrated success in improving adversarial transferability, their performance remains suboptimal due to a lack of consideration for the discrepancies between target and source models. To address this limitation, we propose a novel method, Inverse Knowledge Distillation (IKD), designed to enhance adversarial transferability effectively. IKD introduces a distillation-inspired loss function that seamlessly integrates with gradient-based attack methods, promoting diversity in attack gradients and mitigating overfitting to specific model architectures. By diversifying gradients, IKD enables the generation of adversarial samples with superior generalization capabilities across different models, significantly enhancing their effectiveness in black-box attack scenarios. Extensive experiments on the ImageNet dataset validate the effectiveness of our approach, demonstrating substantial improvements in the transferability and attack success rates of adversarial samples across a wide range of models.
- Abstract(参考訳): 近年、ディープニューラルネットワークの急速な発展は、これらのモデルのセキュリティと堅牢性に注意を向けている。
既存の敵攻撃アルゴリズムは、敵の移動性を改善することに成功したが、ターゲットモデルとソースモデルとの相違が考慮されていないため、その性能は相変わらず最適である。
この制限に対処するために,逆知識蒸留法(Inverse Knowledge Distillation, IKD)を提案する。
IKDは蒸留にインスパイアされた損失関数を導入し、グラデーションベースの攻撃手法とシームレスに統合し、攻撃勾配の多様性を促進し、特定のモデルアーキテクチャへの過度な適合を緩和する。
勾配の多様化により、IKDは異なるモデルにまたがるより優れた一般化能力を持つ敵サンプルの生成を可能にし、ブラックボックス攻撃シナリオにおけるそれらの効果を著しく向上させる。
ImageNetデータセットの大規模な実験により、我々のアプローチの有効性を検証し、幅広いモデルにわたる敵サンプルの転送可能性と攻撃成功率を大幅に改善した。
関連論文リスト
- Sustainable Self-evolution Adversarial Training [51.25767996364584]
対戦型防衛モデルのための持続的自己進化支援訓練(SSEAT)フレームワークを提案する。
本研究は,様々な種類の対角的事例から学習を実現するために,連続的な対向防衛パイプラインを導入する。
また,より多様で重要な再学習データを選択するために,逆データ再生モジュールを提案する。
論文 参考訳(メタデータ) (2024-12-03T08:41:11Z) - Improving the Transferability of Adversarial Examples by Feature Augmentation [6.600860987969305]
本稿では,計算コストの増大を伴わずに,対向移動性を向上する簡易かつ効果的な機能拡張攻撃法を提案する。
具体的には、攻撃勾配の多様性を増大させるために、モデルの中間特徴にランダムノイズを注入する。
提案手法は,既存の勾配攻撃と組み合わせることで,さらなる性能向上を図ることができる。
論文 参考訳(メタデータ) (2024-07-09T09:41:40Z) - Improving Adversarial Transferability by Stable Diffusion [36.97548018603747]
敵対的な例は 良心サンプルに 知覚不能な摂動を導入 予測を欺く
ディープニューラルネットワーク(Deep Neural Network, DNN)は、良性サンプルに知覚不能な摂動を導入し、予測を誤認する敵の例に影響を受けやすい。
本稿では,SDAM(Stable Diffusion Attack Method)と呼ばれる新しい攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T09:10:07Z) - Enhancing Adversarial Attacks: The Similar Target Method [6.293148047652131]
敵対的な例は、ディープニューラルネットワークのアプリケーションに脅威をもたらす。
ディープニューラルネットワークは敵の例に対して脆弱であり、モデルのアプリケーションに脅威を与え、セキュリティ上の懸念を提起する。
我々はSimisal Target(ST)という類似の攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T14:16:36Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Boosting Adversarial Transferability through Enhanced Momentum [50.248076722464184]
深層学習モデルは、人間の知覚できない摂動を良心的なイメージに加えることで、敵の例に弱い。
さまざまな運動量反復勾配に基づく方法が逆転性を改善するのに有効であることが示されている。
本稿では,逆伝達性をさらに高めるために,運動量反復勾配に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-19T03:10:32Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。