論文の概要: LRS: Enhancing Adversarial Transferability through Lipschitz Regularized
Surrogate
- arxiv url: http://arxiv.org/abs/2312.13118v1
- Date: Wed, 20 Dec 2023 15:37:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 15:03:39.653297
- Title: LRS: Enhancing Adversarial Transferability through Lipschitz Regularized
Surrogate
- Title(参考訳): LRS:リプシッツ規則化サロゲートによる対向移動性の向上
- Authors: Tao Wu, Tie Luo, and Donald C. Wunsch
- Abstract要約: 敵の例の転送性は、転送ベースのブラックボックス敵攻撃において重要である。
転送ベースブラックボックス攻撃に対するLipschitz Regularized Surrogate (LRS)を提案する。
我々は、最先端のディープニューラルネットワークとディフェンスモデルを攻撃することで、提案したLSSアプローチを評価する。
- 参考スコア(独自算出の注目度): 8.248964912483912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The transferability of adversarial examples is of central importance to
transfer-based black-box adversarial attacks. Previous works for generating
transferable adversarial examples focus on attacking \emph{given} pretrained
surrogate models while the connections between surrogate models and adversarial
trasferability have been overlooked. In this paper, we propose {\em Lipschitz
Regularized Surrogate} (LRS) for transfer-based black-box attacks, a novel
approach that transforms surrogate models towards favorable adversarial
transferability. Using such transformed surrogate models, any existing
transfer-based black-box attack can run without any change, yet achieving much
better performance. Specifically, we impose Lipschitz regularization on the
loss landscape of surrogate models to enable a smoother and more controlled
optimization process for generating more transferable adversarial examples. In
addition, this paper also sheds light on the connection between the inner
properties of surrogate models and adversarial transferability, where three
factors are identified: smaller local Lipschitz constant, smoother loss
landscape, and stronger adversarial robustness. We evaluate our proposed LRS
approach by attacking state-of-the-art standard deep neural networks and
defense models. The results demonstrate significant improvement on the attack
success rates and transferability. Our code is available at
https://github.com/TrustAIoT/LRS.
- Abstract(参考訳): 攻撃例の転送性は、転送ベースのブラックボックス攻撃において重要となる。
移動可能な逆数例を生成するための従来の研究は、事前訓練された代理モデルの攻撃に焦点をあてる一方で、代理モデルと逆数トラスフェラビリティの接続は見過ごされている。
本稿では,トランスファーベースブラックボックス攻撃に対するリプシッツ正規化サロゲート(LRS)を提案する。
このような変換されたサロゲートモデルを使用すると、既存の転送ベースのブラックボックス攻撃は変更なしに実行できるが、パフォーマンスははるかに向上する。
具体的には、サロゲートモデルの損失状況にリプシッツ正規化を課し、よりスムーズで制御された最適化プロセスにより、より移動可能な逆例を生成する。
さらに,シュロゲートモデルの内部特性と,より小さな局所リプシッツ定数,より滑らかなロスランドスケープ,より強い対向ロバスト性という3つの要因が同定される対向移動性との関係についても光を当てる。
提案手法は,最先端のディープニューラルネットワークと防御モデルに対して攻撃することで評価する。
その結果,攻撃成功率と移動性に有意な改善が認められた。
私たちのコードはhttps://github.com/TrustAIoT/LRS.comで公開されています。
関連論文リスト
- Advancing Generalized Transfer Attack with Initialization Derived Bilevel Optimization and Dynamic Sequence Truncation [49.480978190805125]
転送攻撃はブラックボックスアプリケーションに大きな関心を惹きつける。
既存の作業は、本質的に単一のレベルの目的 w.r.t. シュロゲートモデルを直接最適化する。
本稿では,上位レベル(UL)と下位レベル(LL)のサロゲート攻撃とのネスト関係を明示的に再構築する2レベル最適化手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T07:45:27Z) - Efficient Generation of Targeted and Transferable Adversarial Examples for Vision-Language Models Via Diffusion Models [17.958154849014576]
大規模視覚言語モデル(VLM)のロバスト性を評価するために、敵対的攻撃を用いることができる。
従来のトランスファーベースの敵攻撃は、高いイテレーション数と複雑なメソッド構造により、高いコストを発生させる。
本稿では, 拡散モデルを用いて, 自然, 制約のない, 対象とする対向的な例を生成するAdvDiffVLMを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:19:52Z) - Rethinking the Backward Propagation for Adversarial Transferability [12.244490573612286]
転送ベースのアタックは、サロゲートモデル上の逆例を生成し、アクセスなしで他のブラックボックスモデルを誤解させる可能性がある。
本研究では, 非線形層が後方伝播中の勾配を乱し, 入力画像の勾配が損失関数に不正確であることを示す。
本稿では,入力画像の勾配w.r.t.と損失関数の関係性を高める手法を提案する。
論文 参考訳(メタデータ) (2023-06-22T06:12:23Z) - Generating Adversarial Examples with Better Transferability via Masking
Unimportant Parameters of Surrogate Model [6.737574282249396]
非重要マスキングパラメータ(MUP)を用いた転送攻撃における敵例の転送可能性の向上を提案する。
MUPのキーとなるアイデアは、事前訓練されたサロゲートモデルを洗練して、転送ベースの攻撃を強化することである。
論文 参考訳(メタデータ) (2023-04-14T03:06:43Z) - Logit Margin Matters: Improving Transferable Targeted Adversarial Attack
by Logit Calibration [85.71545080119026]
クロスエントロピー(CE)損失関数は、伝達可能な標的対向例を学習するには不十分である。
本稿では,ロジットを温度係数と適応マージンでダウンスケールすることで,ロジットのキャリブレーションを簡易かつ効果的に行う2つの手法を提案する。
ImageNetデータセットを用いて実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-07T06:42:52Z) - Boosting the Transferability of Adversarial Attacks with Reverse
Adversarial Perturbation [32.81400759291457]
逆の例は、知覚不能な摂動を注入することで誤った予測を生じさせる。
本研究では,現実の応用への脅威から,敵対的事例の伝達可能性について検討する。
逆対向摂動(RAP)と呼ばれる新しい攻撃法を提案する。
論文 参考訳(メタデータ) (2022-10-12T07:17:33Z) - Adversarial Pixel Restoration as a Pretext Task for Transferable
Perturbations [54.1807206010136]
トランスファー可能な敵攻撃は、事前訓練された代理モデルと既知のラベル空間から敵を最適化し、未知のブラックボックスモデルを騙す。
本稿では,効果的なサロゲートモデルをスクラッチからトレーニングするための自己教師型代替手段として,Adversarial Pixel Restorationを提案する。
我々のトレーニングアプローチは、敵の目標を通したオーバーフィッティングを減らすmin-maxの目標に基づいています。
論文 参考訳(メタデータ) (2022-07-18T17:59:58Z) - Transfer Attacks Revisited: A Large-Scale Empirical Study in Real
Computer Vision Settings [64.37621685052571]
我々は,主要なクラウドベースのMLプラットフォームに対する転送攻撃について,最初の系統的実証的研究を行った。
この研究は、既存のものと矛盾しない多くの興味深い発見につながっている。
この作業は、一般的なMLプラットフォームの脆弱性に光を当て、いくつかの有望な研究方向を指し示している、と私たちは信じています。
論文 参考訳(メタデータ) (2022-04-07T12:16:24Z) - Training Meta-Surrogate Model for Transferable Adversarial Attack [98.13178217557193]
クエリーを許可しない場合、ブラックボックスモデルに対する逆攻撃を考える。
この設定では、多くの手法が代理モデルを直接攻撃し、得られた敵の例をターゲットモデルを騙すために転送する。
メタサロゲートモデル(Meta-Surrogate Model:MSM)は,このモデルに対する攻撃が,他のモデルに容易に転送できることを示す。
論文 参考訳(メタデータ) (2021-09-05T03:27:46Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。