論文の概要: ViT-EnsembleAttack: Augmenting Ensemble Models for Stronger Adversarial Transferability in Vision Transformers
- arxiv url: http://arxiv.org/abs/2508.12384v1
- Date: Sun, 17 Aug 2025 14:47:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.711722
- Title: ViT-EnsembleAttack: Augmenting Ensemble Models for Stronger Adversarial Transferability in Vision Transformers
- Title(参考訳): ViT-EnsembleAttack:視覚変換器の強い対向変換性のためのエンサンブルモデルの拡張
- Authors: Hanwen Cao, Haobo Lu, Xiaosen Wang, Kun He,
- Abstract要約: 我々は,アンサンブルモデルの全体的な一般化を促進し,敵のオーバーフィッティングのリスクを低減するために,ViT-EnsembleAttackを提案する。
ViT-EnsembleAttackは、ViTに対するアンサンブルベースの攻撃の対向性を大幅に向上させ、既存の手法よりも大幅に向上する。
- 参考スコア(独自算出の注目度): 12.042884657815845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble-based attacks have been proven to be effective in enhancing adversarial transferability by aggregating the outputs of models with various architectures. However, existing research primarily focuses on refining ensemble weights or optimizing the ensemble path, overlooking the exploration of ensemble models to enhance the transferability of adversarial attacks. To address this gap, we propose applying adversarial augmentation to the surrogate models, aiming to boost overall generalization of ensemble models and reduce the risk of adversarial overfitting. Meanwhile, observing that ensemble Vision Transformers (ViTs) gain less attention, we propose ViT-EnsembleAttack based on the idea of model adversarial augmentation, the first ensemble-based attack method tailored for ViTs to the best of our knowledge. Our approach generates augmented models for each surrogate ViT using three strategies: Multi-head dropping, Attention score scaling, and MLP feature mixing, with the associated parameters optimized by Bayesian optimization. These adversarially augmented models are ensembled to generate adversarial examples. Furthermore, we introduce Automatic Reweighting and Step Size Enlargement modules to boost transferability. Extensive experiments demonstrate that ViT-EnsembleAttack significantly enhances the adversarial transferability of ensemble-based attacks on ViTs, outperforming existing methods by a substantial margin. Code is available at https://github.com/Trustworthy-AI-Group/TransferAttack.
- Abstract(参考訳): アンサンブルベースの攻撃は、様々なアーキテクチャでモデルの出力を集約することで、敵の移動可能性を高めるのに有効であることが証明されている。
しかし、既存の研究は主にアンサンブル重量の精製やアンサンブル経路の最適化に重点を置いており、敵攻撃の伝達可能性を高めるためにアンサンブルモデルの探索を見越している。
このギャップに対処するため,サロゲートモデルに適用し,アンサンブルモデルの全体的な一般化を促進し,敵オーバーフィッティングのリスクを低減することを目的とした。
一方、アンサンブル・ビジョン・トランスフォーマー(ViT)の注目度が低くなるのを観察し、我々の知識を最大限に活用するための最初のアンサンブル・ベースの攻撃方法であるモデル逆数拡大の考え方に基づくViT-EnsembleAttackを提案する。
提案手法は,マルチヘッドドロップ,アテンションスコアスケーリング,MDP特徴混合という3つの戦略を用いて,ベイズ最適化によって最適化された関連するパラメータを用いて,各サロゲート ViT に対する拡張モデルを生成する。
これらの逆拡張モデルは、逆例を生成するためにアンサンブルされる。
さらに、転送可能性を高めるために、自動リウェイトとステップサイズ拡張モジュールを導入します。
大規模な実験により、ViT-EnsembleAttackは、アンサンブルベースのViTに対する攻撃の対向性を大幅に向上し、既存の手法よりも大幅に向上することが示された。
コードはhttps://github.com/Trustworthy-AI-Group/TransferAttack.comで入手できる。
関連論文リスト
- A Simple DropConnect Approach to Transfer-based Targeted Attack [43.039945949426546]
本研究では,単一サロゲートモデルを用いて生成した敵対サンプルを直接対象モデルに適用するトランスファーベースブラックボックス攻撃の問題点について検討する。
我々はDropConnectによる摂動共適応を緩和し、転送可能性を高めることを提案する。
CNNベースのモデルからTransformerベースのモデルに移行するという難しいシナリオでは、MCDは最先端のベースラインに比べて平均ASRが13%高い。
論文 参考訳(メタデータ) (2025-04-24T12:29:23Z) - Adversarial Robustness through Dynamic Ensemble Learning [0.0]
敵対的攻撃は、事前訓練された言語モデル(PLM)の信頼性に重大な脅威をもたらす
本稿では,このような攻撃に対するPLMの堅牢性を高めるための新しいスキームであるDynamic Ensemble Learning (ARDEL) による対逆ロバスト性について述べる。
論文 参考訳(メタデータ) (2024-12-20T05:36:19Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Ensemble Adversarial Defense via Integration of Multiple Dispersed Low Curvature Models [7.8245455684263545]
本研究では,攻撃伝達性を低減し,アンサンブルの多様性を高めることを目的とする。
損失曲率を表す2階勾配を, 対向的強靭性の重要な要因として同定する。
本稿では,複数変数の低曲率ネットワークモデルをトレーニングするための新しい正規化器を提案する。
論文 参考訳(メタデータ) (2024-03-25T03:44:36Z) - FullLoRA: Efficiently Boosting the Robustness of Pretrained Vision Transformers [72.83770102062141]
Vision Transformer (ViT) モデルは、様々なコンピュータビジョンタスクにおいて徐々に主流になりつつある。
既存の大きなモデルは、トレーニング中のパフォーマンスを優先する傾向があり、ロバストさを無視する可能性がある。
従来のLoRAモジュールよりも前に学習可能なレイヤ正規化を取り入れた新しいLNLoRAモジュールを開発した。
学習可能なLNLoRAモジュールをViTモデルの主要コンポーネントに組み込むことにより,FullLoRAフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-03T14:08:39Z) - Enhancing Adversarial Attacks: The Similar Target Method [6.293148047652131]
敵対的な例は、ディープニューラルネットワークのアプリケーションに脅威をもたらす。
ディープニューラルネットワークは敵の例に対して脆弱であり、モデルのアプリケーションに脅威を与え、セキュリティ上の懸念を提起する。
我々はSimisal Target(ST)という類似の攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T14:16:36Z) - An Adaptive Model Ensemble Adversarial Attack for Boosting Adversarial
Transferability [26.39964737311377]
我々はAdaEAと呼ばれる適応型アンサンブル攻撃を提案し、各モデルからの出力の融合を適応的に制御する。
我々は、様々なデータセットに対する既存のアンサンブル攻撃よりも大幅に改善した。
論文 参考訳(メタデータ) (2023-08-05T15:12:36Z) - Deeper Insights into ViTs Robustness towards Common Corruptions [82.79764218627558]
我々は、CNNのようなアーキテクチャ設計とCNNベースのデータ拡張戦略が、一般的な汚職に対するViTsの堅牢性にどのように影響するかを検討する。
重なり合うパッチ埋め込みと畳み込みフィードフォワードネットワーク(FFN)がロバスト性の向上を実証する。
また、2つの角度から入力値の増大を可能にする新しい条件付き手法も導入する。
論文 参考訳(メタデータ) (2022-04-26T08:22:34Z) - On Improving Adversarial Transferability of Vision Transformers [97.17154635766578]
視覚変換器(ViT)は、入力画像を、自己注意によるパッチのシーケンスとして処理する。
本稿では,ViTモデルの対角的特徴空間とその伝達性について検討する。
本稿では,ViTモデルのアーキテクチャに特有な2つの新しい戦略を紹介する。
論文 参考訳(メタデータ) (2021-06-08T08:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。