論文の概要: Towards more transferable adversarial attack in black-box manner
- arxiv url: http://arxiv.org/abs/2505.18097v1
- Date: Fri, 23 May 2025 16:49:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.236106
- Title: Towards more transferable adversarial attack in black-box manner
- Title(参考訳): ブラックボックス方式によるより移動可能な敵攻撃に向けて
- Authors: Chun Tong Lei, Zhongliang Guo, Hon Chung Lee, Minh Quoc Duong, Chun Pong Lau,
- Abstract要約: 移動可能性に基づくブラックボックス攻撃は、現実のシナリオで実際に適用可能であることから、大きな注目を集めている。
近年の最先端アプローチであるDiffPGDは、拡散型対向浄化モデルを用いてアダプティブアタックを実現することで、転送性の向上を実証している。
本稿では,新しい損失関数と一意な代理モデルを組み合わせることで,仮説の検証を行う。
- 参考スコア(独自算出の注目度): 1.1417805445492082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks have become a well-explored domain, frequently serving as evaluation baselines for model robustness. Among these, black-box attacks based on transferability have received significant attention due to their practical applicability in real-world scenarios. Traditional black-box methods have generally focused on improving the optimization framework (e.g., utilizing momentum in MI-FGSM) to enhance transferability, rather than examining the dependency on surrogate white-box model architectures. Recent state-of-the-art approach DiffPGD has demonstrated enhanced transferability by employing diffusion-based adversarial purification models for adaptive attacks. The inductive bias of diffusion-based adversarial purification aligns naturally with the adversarial attack process, where both involving noise addition, reducing dependency on surrogate white-box model selection. However, the denoising process of diffusion models incurs substantial computational costs through chain rule derivation, manifested in excessive VRAM consumption and extended runtime. This progression prompts us to question whether introducing diffusion models is necessary. We hypothesize that a model sharing similar inductive bias to diffusion-based adversarial purification, combined with an appropriate loss function, could achieve comparable or superior transferability while dramatically reducing computational overhead. In this paper, we propose a novel loss function coupled with a unique surrogate model to validate our hypothesis. Our approach leverages the score of the time-dependent classifier from classifier-guided diffusion models, effectively incorporating natural data distribution knowledge into the adversarial optimization process. Experimental results demonstrate significantly improved transferability across diverse model architectures while maintaining robustness against diffusion-based defenses.
- Abstract(参考訳): 敵攻撃はよく探索された領域となり、しばしばモデルロバストネスの評価基準として機能している。
これらのうち、現実のシナリオにおける実用性から、転送可能性に基づくブラックボックス攻撃が注目されている。
従来のブラックボックス手法は一般に、サロゲートホワイトボックスモデルアーキテクチャへの依存を調べるのではなく、転送可能性を高めるために最適化フレームワーク(例えばMI-FGSMの運動量を利用する)の改善に重点を置いている。
近年の最先端アプローチであるDiffPGDは、拡散型対向浄化モデルを用いてアダプティブアタックを実現することで、転送性の向上を実証している。
拡散に基づく逆方向浄化の帰納バイアスは、ノイズ付加を伴う逆方向攻撃過程と自然に一致し、代用ホワイトボックスモデル選択への依存性を減少させる。
しかし、拡散モデルの分極過程は、過剰なVRAM消費と拡張ランタイムで表される連鎖規則の導出によってかなりの計算コストをもたらす。
この進歩は拡散モデルの導入が不可欠かどうかを疑問視するきっかけとなる。
拡散に基づく逆数浄化に類似した帰納バイアスを共有するモデルと適切な損失関数を組み合わせれば、計算オーバーヘッドを劇的に減らしながら、同等あるいは優れた転送性が得られるという仮説を立てた。
本稿では,この仮説を検証するために,新しい損失関数とユニークな代理モデルを提案する。
提案手法は,分類器誘導拡散モデルから時間依存分類器のスコアを活用し,自然データ分布の知識を逆最適化プロセスに効果的に組み込む。
実験により,拡散防御に対するロバスト性を維持しつつ,多種多様なモデルアーキテクチャ間の伝達性を大幅に向上した。
関連論文リスト
- TRAIL: Transferable Robust Adversarial Images via Latent diffusion [35.54430200195499]
敵対的攻撃は、ディープラーニングシステムに深刻なセキュリティリスクをもたらす。
モデル間の転送性は、生成した逆数の特徴と実世界のデータの間の分布ミスマッチによって制限されている。
テスト時間適応フレームワークTRAIL(Latent Diffusion)を用いたTransferable Robust Adrial Imagesを提案する。
論文 参考訳(メタデータ) (2025-05-22T03:11:35Z) - Generalized Interpolating Discrete Diffusion [65.74168524007484]
仮面拡散はその単純さと有効性のために一般的な選択である。
離散拡散過程を補間する一般族の理論的バックボーンを導出する。
GIDDのフレキシビリティをエクスプロイトし、マスクと均一ノイズを組み合わせたハイブリッドアプローチを探索する。
論文 参考訳(メタデータ) (2025-03-06T14:30:55Z) - Predicting Cascading Failures with a Hyperparametric Diffusion Model [66.89499978864741]
拡散モデルのレンズによる電力グリッドのカスケード故障について検討する。
我々のモデルは、バイラル拡散原理と物理に基づく概念を統合する。
この拡散モデルはカスケード故障の痕跡から学習可能であることを示す。
論文 参考訳(メタデータ) (2024-06-12T02:34:24Z) - Towards Understanding the Robustness of Diffusion-Based Purification: A Stochastic Perspective [65.10019978876863]
拡散性浄化(DBP)は、敵の攻撃に対する効果的な防御機構として出現している。
本稿では,DBPプロセスの本質性がロバスト性を駆動する主要な要因であることを示す。
論文 参考訳(メタデータ) (2024-04-22T16:10:38Z) - Struggle with Adversarial Defense? Try Diffusion [8.274506117450628]
アドリア攻撃は微妙な摂動を導入して誤分類を引き起こす。
拡散に基づく敵の訓練は、しばしば収束の課題と高い計算費用に遭遇する。
本稿では,これらの問題を克服するために,真性最大化拡散(TMDC)を提案する。
論文 参考訳(メタデータ) (2024-04-12T06:52:40Z) - Confronting Reward Overoptimization for Diffusion Models: A Perspective of Inductive and Primacy Biases [76.9127853906115]
拡散モデルと人間の嗜好のギャップを埋めることが、実用的生成への統合に不可欠である。
本稿では,拡散モデルの時間的帰納バイアスを利用したポリシー勾配アルゴリズムTDPO-Rを提案する。
実験の結果,報酬過小評価を緩和する手法が有効であることが示された。
論文 参考訳(メタデータ) (2024-02-13T15:55:41Z) - Improving Adversarial Transferability by Stable Diffusion [36.97548018603747]
敵対的な例は 良心サンプルに 知覚不能な摂動を導入 予測を欺く
ディープニューラルネットワーク(Deep Neural Network, DNN)は、良性サンプルに知覚不能な摂動を導入し、予測を誤認する敵の例に影響を受けやすい。
本稿では,SDAM(Stable Diffusion Attack Method)と呼ばれる新しい攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T09:10:07Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。