論文の概要: Latent Danger Zone: Distilling Unified Attention for Cross-Architecture Black-box Attacks
- arxiv url: http://arxiv.org/abs/2509.19044v1
- Date: Tue, 23 Sep 2025 14:12:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.884485
- Title: Latent Danger Zone: Distilling Unified Attention for Cross-Architecture Black-box Attacks
- Title(参考訳): 潜在危険ゾーン: クロスアーキテクチャなブラックボックス攻撃に対する統一された注意を蒸留する
- Authors: Yang Li, Chenyu Wang, Tingrui Wang, Yongwei Wang, Haonan Li, Zhunga Liu, Quan Pan,
- Abstract要約: ブラックボックスの敵攻撃は、モデル内部へのアクセスが限られているため困難である。
ブラックボックス攻撃に対する遅延拡散モデルフレームワークであるJADを提案する。
JADは、畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)モデルの両方から抽出された注意マップによって導かれる潜伏拡散モデルを利用して、敵の例を生成する。
- 参考スコア(独自算出の注目度): 24.61817612517307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Black-box adversarial attacks remain challenging due to limited access to model internals. Existing methods often depend on specific network architectures or require numerous queries, resulting in limited cross-architecture transferability and high query costs. To address these limitations, we propose JAD, a latent diffusion model framework for black-box adversarial attacks. JAD generates adversarial examples by leveraging a latent diffusion model guided by attention maps distilled from both a convolutional neural network (CNN) and a Vision Transformer (ViT) models. By focusing on image regions that are commonly sensitive across architectures, this approach crafts adversarial perturbations that transfer effectively between different model types. This joint attention distillation strategy enables JAD to be architecture-agnostic, achieving superior attack generalization across diverse models. Moreover, the generative nature of the diffusion framework yields high adversarial sample generation efficiency by reducing reliance on iterative queries. Experiments demonstrate that JAD offers improved attack generalization, generation efficiency, and cross-architecture transferability compared to existing methods, providing a promising and effective paradigm for black-box adversarial attacks.
- Abstract(参考訳): ブラックボックスの敵攻撃は、モデル内部へのアクセスが限られているため、依然として困難である。
既存の手法は、しばしば特定のネットワークアーキテクチャに依存するか、多数のクエリを必要とするため、アーキテクチャ間の転送性が制限され、クエリコストが高くなる。
これらの制約に対処するために,ブラックボックス攻撃のための潜伏拡散モデルフレームワークであるJADを提案する。
JADは、畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)モデルの両方から抽出された注意マップによって導かれる潜伏拡散モデルを利用して、敵の例を生成する。
アーキテクチャ全体にわたって一般的にセンシティブなイメージ領域に焦点を当てることで、異なるモデルタイプ間で効果的に転送される敵の摂動を実現する。
この共同注意蒸留戦略により、JADはアーキテクチャに依存しず、多様なモデルに対して優れた攻撃一般化を実現することができる。
さらに、拡散フレームワークの生成特性は、反復的なクエリへの依存を減らすことにより、高い逆サンプル生成効率をもたらす。
実験により、JADは既存の手法と比較して、攻撃一般化、生成効率、アーキテクチャ間転送性が向上し、ブラックボックスの敵攻撃に対して有望かつ効果的なパラダイムを提供することが示された。
関連論文リスト
- Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - Towards more transferable adversarial attack in black-box manner [1.1417805445492082]
移動可能性に基づくブラックボックス攻撃は、現実のシナリオで実際に適用可能であることから、大きな注目を集めている。
近年の最先端アプローチであるDiffPGDは、拡散型対向浄化モデルを用いてアダプティブアタックを実現することで、転送性の向上を実証している。
本稿では,新しい損失関数と一意な代理モデルを組み合わせることで,仮説の検証を行う。
論文 参考訳(メタデータ) (2025-05-23T16:49:20Z) - Seeking Flat Minima over Diverse Surrogates for Improved Adversarial Transferability: A Theoretical Framework and Algorithmic Instantiation [38.12499933796839]
本稿では, 対向転送可能性の証明可能な保証を提供する新しい転送可能性バウンダリを提案する。
以上の結果から,AEsをSurrogateモデル集合上の平らな最小値に最適化すると同時に,Surrogate-Targetモデルシフトを逆モデル不一致で制御することにより,AEの転送性に対する包括的保証が得られることが示唆された。
論文 参考訳(メタデータ) (2025-04-23T07:33:45Z) - Improving the Transferability of Adversarial Examples by Inverse Knowledge Distillation [15.362394334872077]
逆知識蒸留(Inverse Knowledge Distillation, IKD)は, 対向移動性を効果的に向上するように設計されている。
IKDは勾配に基づく攻撃手法を統合し、攻撃勾配の多様性を促進し、特定のモデルアーキテクチャへの過度な適合を緩和する。
ImageNetデータセットの実験は、我々のアプローチの有効性を検証する。
論文 参考訳(メタデータ) (2025-02-24T09:35:30Z) - Common Knowledge Learning for Generating Transferable Adversarial
Examples [60.1287733223249]
本稿では,代用(ソース)モデルにより敵のサンプルを生成するブラックボックス攻撃の重要タイプに着目した。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャのものである場合、不満足な逆転が生じる傾向にある。
本稿では,より優れたネットワーク重みを学習し,敵対的な例を生成するための共通知識学習(CKL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-01T09:07:12Z) - Practical No-box Adversarial Attacks with Training-free Hybrid Image Transformation [94.30136898739448]
ノンボックス脅威モデルの下では, テキストbftraining-free adversarial perturbationの存在を示す。
低レベルの特徴を持つ高周波成分 (HFC) ドメインは, 主に周波数成分の操作によって画像を攻撃する。
我々の手法は、主流の転送ベースのブラックボックス攻撃と競合する。
論文 参考訳(メタデータ) (2022-03-09T09:51:00Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z) - Perturbing Across the Feature Hierarchy to Improve Standard and Strict
Blackbox Attack Transferability [100.91186458516941]
我々は、ディープニューラルネットワーク(DNN)画像分類器の領域におけるブラックボックス転送に基づく敵攻撃脅威モデルを検討する。
我々は,多層摂動が可能なフレキシブルアタックフレームワークを設計し,最先端のターゲット転送性能を示す。
提案手法が既存の攻撃戦略より優れている理由を解析し,ブラックボックスモデルに対する限られたクエリが許された場合に,メソッドの拡張を示す。
論文 参考訳(メタデータ) (2020-04-29T16:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。