論文の概要: A Simple DropConnect Approach to Transfer-based Targeted Attack
- arxiv url: http://arxiv.org/abs/2504.18594v1
- Date: Thu, 24 Apr 2025 12:29:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.901286
- Title: A Simple DropConnect Approach to Transfer-based Targeted Attack
- Title(参考訳): 移動型目標攻撃に対する簡易DropConnectアプローチ
- Authors: Tongrui Su, Qingbin Li, Shengyu Zhu, Wei Chen, Xueqi Cheng,
- Abstract要約: 本研究では,単一サロゲートモデルを用いて生成した敵対サンプルを直接対象モデルに適用するトランスファーベースブラックボックス攻撃の問題点について検討する。
我々はDropConnectによる摂動共適応を緩和し、転送可能性を高めることを提案する。
CNNベースのモデルからTransformerベースのモデルに移行するという難しいシナリオでは、MCDは最先端のベースラインに比べて平均ASRが13%高い。
- 参考スコア(独自算出の注目度): 43.039945949426546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of transfer-based black-box attack, where adversarial samples generated using a single surrogate model are directly applied to target models. Compared with untargeted attacks, existing methods still have lower Attack Success Rates (ASRs) in the targeted setting, i.e., the obtained adversarial examples often overfit the surrogate model but fail to mislead other models. In this paper, we hypothesize that the pixels or features in these adversarial examples collaborate in a highly dependent manner to maximize the success of an adversarial attack on the surrogate model, which we refer to as perturbation co-adaptation. Then, we propose to Mitigate perturbation Co-adaptation by DropConnect (MCD) to enhance transferability, by creating diverse variants of surrogate model at each optimization iteration. We conduct extensive experiments across various CNN- and Transformer-based models to demonstrate the effectiveness of MCD. In the challenging scenario of transferring from a CNN-based model to Transformer-based models, MCD achieves 13% higher average ASRs compared with state-of-the-art baselines. MCD boosts the performance of self-ensemble methods by bringing in more diversification across the variants while reserving sufficient semantic information for each variant. In addition, MCD attains the highest performance gain when scaling the compute of crafting adversarial examples.
- Abstract(参考訳): 本研究では,単一サロゲートモデルを用いて生成した敵対サンプルを直接対象モデルに適用するトランスファーベースブラックボックス攻撃の問題点について検討する。
標的外攻撃と比較すると、既存の手法は目標設定における攻撃成功率(ASR)を低く抑え、すなわち、得られた敵の例はサロゲートモデルによく適合するが、他のモデルを誤解させることができない。
本稿では,これらの逆数例の画素や特徴が,摂動共適応(perturbation co-adaptation)と呼ばれるサロゲートモデルに対する逆数攻撃の成功を最大化するために,非常に依存度の高い方法で協調する,という仮説を立てる。
そこで我々は,DropConnect (MCD) による摂動共適応を緩和し,各最適化イテレーションにおけるサロゲートモデルの多種多様なバリエーションを作成することにより,転送可能性を高めることを提案する。
MCDの有効性を実証するため,様々なCNNモデルとトランスフォーマーモデルを用いた広範囲な実験を行った。
CNNベースのモデルからTransformerベースのモデルに移行するという難しいシナリオでは、MCDは最先端のベースラインに比べて平均ASRが13%高い。
MCDは、各変種に対して十分な意味情報を保存しながら、変種をより多様化させることにより、自己アンサンブル法の性能を高める。
さらに、MDDは、クラフト対逆例の計算をスケールする際に、最高のパフォーマンス向上を達成する。
関連論文リスト
- Improving the Transferability of Adversarial Attacks on Face Recognition with Diverse Parameters Augmentation [29.5096732465412]
顔認識(FR)モデルは、良質な顔画像を微妙に操作する敵の例に対して脆弱である。
既存の敵攻撃法は、サロゲートモデルを増強する潜在的な利点を見落としていることが多い。
本稿では,DPA攻撃法(Diverse Parameters Augmentation)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-23T13:22:37Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - An Adaptive Model Ensemble Adversarial Attack for Boosting Adversarial
Transferability [26.39964737311377]
我々はAdaEAと呼ばれる適応型アンサンブル攻撃を提案し、各モデルからの出力の融合を適応的に制御する。
我々は、様々なデータセットに対する既存のアンサンブル攻撃よりも大幅に改善した。
論文 参考訳(メタデータ) (2023-08-05T15:12:36Z) - Improving Transferability of Adversarial Examples via Bayesian Attacks [84.90830931076901]
モデル入力にベイズ定式化を組み込むことにより,モデル入力とモデルパラメータの共分散を可能にする新しい拡張を導入する。
提案手法は,トランスファーベース攻撃に対する新たな最先端技術を実現し,ImageNetとCIFAR-10の平均成功率をそれぞれ19.14%,2.08%向上させる。
論文 参考訳(メタデータ) (2023-07-21T03:43:07Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Training Meta-Surrogate Model for Transferable Adversarial Attack [98.13178217557193]
クエリーを許可しない場合、ブラックボックスモデルに対する逆攻撃を考える。
この設定では、多くの手法が代理モデルを直接攻撃し、得られた敵の例をターゲットモデルを騙すために転送する。
メタサロゲートモデル(Meta-Surrogate Model:MSM)は,このモデルに対する攻撃が,他のモデルに容易に転送できることを示す。
論文 参考訳(メタデータ) (2021-09-05T03:27:46Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。