論文の概要: Enabling Heterogeneous Adversarial Transferability via Feature Permutation Attacks
- arxiv url: http://arxiv.org/abs/2503.20310v1
- Date: Wed, 26 Mar 2025 08:20:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:22:17.093642
- Title: Enabling Heterogeneous Adversarial Transferability via Feature Permutation Attacks
- Title(参考訳): 特徴置換攻撃による異種交叉伝達特性の解明
- Authors: Tao Wu, Tie Luo,
- Abstract要約: ブラックボックス設定でのアドリアック攻撃は非常に実践的です。
転送ベースの攻撃は、敵の例を生成するのに最も効果的である。
本稿では,多様なアーキテクチャをまたいだ対向移動性を向上させるゼロFLOP,パラメータフリーな手法を提案する。
- 参考スコア(独自算出の注目度): 2.903672829452489
- License:
- Abstract: Adversarial attacks in black-box settings are highly practical, with transfer-based attacks being the most effective at generating adversarial examples (AEs) that transfer from surrogate models to unseen target models. However, their performance significantly degrades when transferring across heterogeneous architectures -- such as CNNs, MLPs, and Vision Transformers (ViTs) -- due to fundamental architectural differences. To address this, we propose Feature Permutation Attack (FPA), a zero-FLOP, parameter-free method that enhances adversarial transferability across diverse architectures. FPA introduces a novel feature permutation (FP) operation, which rearranges pixel values in selected feature maps to simulate long-range dependencies, effectively making CNNs behave more like ViTs and MLPs. This enhances feature diversity and improves transferability both across heterogeneous architectures and within homogeneous CNNs. Extensive evaluations on 14 state-of-the-art architectures show that FPA achieves maximum absolute gains in attack success rates of 7.68% on CNNs, 14.57% on ViTs, and 14.48% on MLPs, outperforming existing black-box attacks. Additionally, FPA is highly generalizable and can seamlessly integrate with other transfer-based attacks to further boost their performance. Our findings establish FPA as a robust, efficient, and computationally lightweight strategy for enhancing adversarial transferability across heterogeneous architectures.
- Abstract(参考訳): ブラックボックス設定における敵攻撃は非常に実用的であり、転送ベースの攻撃は、代理モデルから見当たらないターゲットモデルに転送する敵例(AE)を生成するのに最も効果的である。
しかし、その性能は、CNN、MPP、ビジョントランスフォーマー(ViT)などの異種アーキテクチャ間での転送において、基本的なアーキテクチャの違いにより著しく低下する。
そこで本研究では,FPA (Feature Permutation Attack) を提案する。
FPAは、選択された特徴マップのピクセル値を並べ替えて長距離依存性をシミュレートする機能置換(FP)操作を導入し、事実上CNNをViTやMPPのように振る舞う。
これにより特徴の多様性が向上し、異種アーキテクチャと同種CNNの両方におけるトランスファービリティが向上する。
14の最先端アーキテクチャに関する大規模な評価によると、FPAはCNNで7.68%、ViTで14.57%、MLPで14.48%の攻撃成功率を達成し、既存のブラックボックス攻撃を上回っている。
さらに、FPAは高度に一般化可能で、他の転送ベースの攻撃とシームレスに統合してパフォーマンスをさらに向上することができる。
この結果から,FPAは不均一なアーキテクチャを横断する対向移動性を高めるための,堅牢で効率的かつ計算的に軽量な戦略として確立された。
関連論文リスト
- Improving Transferable Targeted Attacks with Feature Tuning Mixup [12.707753562907534]
ディープニューラルネットワーク(DNN)は、異なるモデル間で転送可能な敵の例に対する脆弱性を示す。
ターゲット攻撃の伝達性を向上する新しい手法であるFeature Tuning Mixup (FTM)を提案する。
提案手法は,計算コストを低く抑えつつ,最先端の手法よりも大幅に向上する。
論文 参考訳(メタデータ) (2024-11-23T13:18:25Z) - Semantic-Aligned Adversarial Evolution Triangle for High-Transferability Vision-Language Attack [51.16384207202798]
視覚言語事前学習モデルは多モーダル逆例(AE)に対して脆弱である
従来のアプローチでは、画像とテキストのペアを拡大して、敵対的なサンプル生成プロセス内での多様性を高めている。
本稿では, 敵の多様性を高めるために, クリーン, ヒストリ, および現在の敵の例からなる敵の進化三角形からのサンプリングを提案する。
論文 参考訳(メタデータ) (2024-11-04T23:07:51Z) - Enhancing Adversarial Transferability with Adversarial Weight Tuning [36.09966860069978]
敵対的な例(AE)は、人間の観察者に対して良心を抱きながらモデルを誤解させた。
AWTは、勾配に基づく攻撃法とモデルに基づく攻撃法を組み合わせて、AEの転送可能性を高めるデータフリーチューニング手法である。
論文 参考訳(メタデータ) (2024-08-18T13:31:26Z) - An Adaptive Model Ensemble Adversarial Attack for Boosting Adversarial
Transferability [26.39964737311377]
我々はAdaEAと呼ばれる適応型アンサンブル攻撃を提案し、各モデルからの出力の融合を適応的に制御する。
我々は、様々なデータセットに対する既存のアンサンブル攻撃よりも大幅に改善した。
論文 参考訳(メタデータ) (2023-08-05T15:12:36Z) - Set-level Guidance Attack: Boosting Adversarial Transferability of
Vision-Language Pre-training Models [52.530286579915284]
本稿では,視覚言語事前学習モデルの対角移動可能性について検討する。
伝達性劣化は、部分的にはクロスモーダル相互作用のアンダーユース化によって引き起こされる。
本稿では,高度に伝達可能なSGA(Set-level Guidance Attack)を提案する。
論文 参考訳(メタデータ) (2023-07-26T09:19:21Z) - Inter-frame Accelerate Attack against Video Interpolation Models [73.28751441626754]
我々は,対戦型攻撃をVIFモデルに適用し,対戦型モデルに対して非常に脆弱であることを示す。
本稿では,フレーム間加速攻撃(IAA)と呼ばれる新しい攻撃手法を提案する。
本手法は従来の手法と同等の攻撃性能を達成しつつ,攻撃効率を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-11T03:08:48Z) - Diversifying the High-level Features for better Adversarial
Transferability [21.545976132427747]
本稿では,高次特徴量(DHF)の多角化を提案する。
DHFは、ハイレベルな特徴をランダムに変換し、良質なサンプルの特徴と混ぜることで、ハイレベルな特徴を摂動させる。
ImageNetデータセットの実証的な評価は、DHFが既存のモーメントベースの攻撃の転送性を効果的に改善できることを示している。
論文 参考訳(メタデータ) (2023-04-20T07:44:59Z) - Deeper Insights into ViTs Robustness towards Common Corruptions [82.79764218627558]
我々は、CNNのようなアーキテクチャ設計とCNNベースのデータ拡張戦略が、一般的な汚職に対するViTsの堅牢性にどのように影響するかを検討する。
重なり合うパッチ埋め込みと畳み込みフィードフォワードネットワーク(FFN)がロバスト性の向上を実証する。
また、2つの角度から入力値の増大を可能にする新しい条件付き手法も導入する。
論文 参考訳(メタデータ) (2022-04-26T08:22:34Z) - Towards Transferable Adversarial Attacks on Vision Transformers [110.55845478440807]
視覚変換器(ViT)は、コンピュータビジョンの一連のタスクにおいて印象的なパフォーマンスを示してきたが、それでも敵の例に悩まされている。
本稿では、PNA攻撃とPatchOut攻撃を含むデュアルアタックフレームワークを導入し、異なるViT間での対向サンプルの転送性を改善する。
論文 参考訳(メタデータ) (2021-09-09T11:28:25Z) - On Improving Adversarial Transferability of Vision Transformers [97.17154635766578]
視覚変換器(ViT)は、入力画像を、自己注意によるパッチのシーケンスとして処理する。
本稿では,ViTモデルの対角的特徴空間とその伝達性について検討する。
本稿では,ViTモデルのアーキテクチャに特有な2つの新しい戦略を紹介する。
論文 参考訳(メタデータ) (2021-06-08T08:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。