論文の概要: Scaling Laws for Black box Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2411.16782v2
- Date: Thu, 15 May 2025 08:18:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 14:06:35.642719
- Title: Scaling Laws for Black box Adversarial Attacks
- Title(参考訳): ブラックボックス攻撃のスケーリング法則
- Authors: Chuan Liu, Huanran Chen, Yichi Zhang, Yinpeng Dong, Jun Zhu,
- Abstract要約: 逆例は通常、優れたクロスモデル転送性を示す。
モデルアンサンブルは、敵の例の転送可能性を改善する効果的な戦略である。
法則をスケールすることで、プロプライエタリなモデルでも90%以上のトランスファー攻撃の成功率を達成することができる。
- 参考スコア(独自算出の注目度): 37.744814957775965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples usually exhibit good cross-model transferability, enabling attacks on black-box models with limited information about their architectures and parameters, which are highly threatening in commercial black-box scenarios. Model ensembling is an effective strategy to improve the transferability of adversarial examples by attacking multiple surrogate models. However, since prior studies usually adopt few models in the ensemble, there remains an open question of whether scaling the number of models can further improve black-box attacks. Inspired by the scaling law of large foundation models, we investigate the scaling laws of black-box adversarial attacks in this work. Through theoretical analysis and empirical evaluations, we conclude with clear scaling laws that using more surrogate models enhances adversarial transferability. Comprehensive experiments verify the claims on standard image classifiers, diverse defended models and multimodal large language models using various adversarial attack methods. Specifically, by scaling law, we achieve 90%+ transfer attack success rate on even proprietary models like GPT-4o. Further visualization indicates that there is also a scaling law on the interpretability and semantics of adversarial perturbations.
- Abstract(参考訳): 敵対的な例は通常、優れたクロスモデル転送可能性を示し、商用のブラックボックスシナリオにおいて非常に脅威となるアーキテクチャやパラメータに関する情報が限られているブラックボックスモデルへの攻撃を可能にする。
モデルアンサンブルは、複数のサロゲートモデルを攻撃することで、敵のサンプルの転送可能性を改善する効果的な戦略である。
しかしながら、先行研究ではアンサンブルにはほとんどモデルが採用されていないため、モデル数を拡大することでブラックボックス攻撃をさらに改善できるかどうかについては、未解決の問題が残っている。
大規模基盤モデルのスケーリング法則に着想を得て,本研究におけるブラックボックス攻撃のスケーリング法則について検討する。
理論的解析と経験的評価を通じて、よりサロゲートモデルを用いたスケーリング法則は対向移動可能性を高めると結論付けている。
総合的な実験により、標準的な画像分類器、多様な防御モデル、および様々な敵攻撃手法を用いた多モーダルな大規模言語モデルに関する主張が検証される。
具体的には、GPT-4oのようなプロプライエタリなモデルでも90%以上の転送攻撃の成功率を達成する。
さらなる可視化は、敵の摂動の解釈可能性と意味論にもスケーリング法則が存在することを示している。
関連論文リスト
- An Adaptive Model Ensemble Adversarial Attack for Boosting Adversarial
Transferability [26.39964737311377]
我々はAdaEAと呼ばれる適応型アンサンブル攻撃を提案し、各モデルからの出力の融合を適応的に制御する。
我々は、様々なデータセットに対する既存のアンサンブル攻撃よりも大幅に改善した。
論文 参考訳(メタデータ) (2023-08-05T15:12:36Z) - Rethinking Model Ensemble in Transfer-based Adversarial Attacks [46.82830479910875]
転送可能性を改善する効果的な戦略は、モデルのアンサンブルを攻撃することである。
これまでの作業は、単に異なるモデルの出力を平均化するだけであった。
我々は、より移動可能な敵の例を生成するために、CWA(Common Weakness Attack)を提案する。
論文 参考訳(メタデータ) (2023-03-16T06:37:16Z) - Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Training Meta-Surrogate Model for Transferable Adversarial Attack [98.13178217557193]
クエリーを許可しない場合、ブラックボックスモデルに対する逆攻撃を考える。
この設定では、多くの手法が代理モデルを直接攻撃し、得られた敵の例をターゲットモデルを騙すために転送する。
メタサロゲートモデル(Meta-Surrogate Model:MSM)は,このモデルに対する攻撃が,他のモデルに容易に転送できることを示す。
論文 参考訳(メタデータ) (2021-09-05T03:27:46Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Orthogonal Deep Models As Defense Against Black-Box Attacks [71.23669614195195]
攻撃者が標的モデルに類似したモデルを用いて攻撃を発生させるブラックボックス設定における深層モデル固有の弱点について検討する。
本稿では,深部モデルの内部表現を他のモデルに直交させる新しい勾配正規化手法を提案する。
様々な大規模モデルにおいて,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2020-06-26T08:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。