論文の概要: Enhancing Adversarial Transferability via Component-Wise Augmentation Method
- arxiv url: http://arxiv.org/abs/2501.11901v1
- Date: Tue, 21 Jan 2025 05:41:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:22:22.908177
- Title: Enhancing Adversarial Transferability via Component-Wise Augmentation Method
- Title(参考訳): コンポーネントワイズ拡張法による逆転送性の向上
- Authors: Hangyu Liu, Bo Peng, Pengxiang Ding, Donglin Wang,
- Abstract要約: CWA(Component-Wise Augmentation)は、ブロックワイズ変換を局所的に適用することにより、転送可能性を高めるように設計されている。
CWAは、個々の画像ブロックを戦略的に統合し、選択的に回転させ、モデル注意領域を多様化する。
CWAは、CNNおよびTransformerベースのモデルにおける攻撃成功率と安定性の両方において、最先端の手法を一貫して上回っている。
- 参考スコア(独自算出の注目度): 26.259289475583522
- License:
- Abstract: Deep Neural Networks (DNNs) are highly vulnerable to adversarial examples, which pose significant challenges in security-sensitive applications. Among various adversarial attack strategies, input transformation-based attacks have demonstrated remarkable effectiveness in enhancing adversarial transferability. However, existing methods fail to diversify attention regions across models adequately and introduce excessive information loss during transformations. In this paper, we introduce a novel input transformation-based method, termed Component-Wise Augmentation (CWA), designed to enhance transferability by locally applying block-wise transformations. CWA strategically integrates interpolation and selective rotation on individual image blocks to diversify model attention regions while preserving semantic integrity. Extensive experiments on the standard ImageNet dataset show that CWA consistently outperforms state-of-the-art methods in both attack success rates and stability across CNN- and Transformer-based models, while also demonstrating superior performance against multiple defense methods.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、敵の例に対して非常に脆弱であり、セキュリティに敏感なアプリケーションにおいて大きな課題を生じさせる。
様々な対向攻撃戦略の中で、入力変換に基づく攻撃は、対向移動性を高めるのに顕著な効果を示した。
しかし、既存の手法では、モデル間で注意領域を適切に多様化することができず、変換時に過剰な情報損失が発生する。
本稿では,CWA(Component-Wise Augmentation)と呼ばれる新しい入力変換方式を提案する。
CWAは、個々の画像ブロックの補間と選択的回転を戦略的に統合し、セマンティックな整合性を維持しながら、モデルの注意領域を多様化する。
標準的なImageNetデータセットの広範な実験によると、CWAはCNNベースのモデルとTransformerベースのモデルの両方で、攻撃成功率と安定性の両方において、最先端の手法を一貫して上回り、同時に複数の防御手法に対して優れたパフォーマンスを示している。
関連論文リスト
- Semantic-Aligned Adversarial Evolution Triangle for High-Transferability Vision-Language Attack [51.16384207202798]
視覚言語事前学習モデルは多モーダル逆例(AE)に対して脆弱である
従来のアプローチでは、画像とテキストのペアを拡大して、敵対的なサンプル生成プロセス内での多様性を高めている。
本稿では, 敵の多様性を高めるために, クリーン, ヒストリ, および現在の敵の例からなる敵の進化三角形からのサンプリングを提案する。
論文 参考訳(メタデータ) (2024-11-04T23:07:51Z) - Cross-Modality Attack Boosted by Gradient-Evolutionary Multiform Optimization [4.226449585713182]
クロスモーダル・アタックは、トランスファービリティーへの攻撃に重大な課題をもたらす。
マルチフォームアタック(multiform attack)と呼ばれる,新たなクロスモーダルアタック戦略を提案する。
従来の手法と比較して,マルチフォームアタックの優位性とロバスト性を示す。
論文 参考訳(メタデータ) (2024-09-26T15:52:34Z) - Improving the Transferability of Adversarial Examples by Feature Augmentation [6.600860987969305]
本稿では,計算コストの増大を伴わずに,対向移動性を向上する簡易かつ効果的な機能拡張攻撃法を提案する。
具体的には、攻撃勾配の多様性を増大させるために、モデルの中間特徴にランダムノイズを注入する。
提案手法は,既存の勾配攻撃と組み合わせることで,さらなる性能向上を図ることができる。
論文 参考訳(メタデータ) (2024-07-09T09:41:40Z) - Bag of Tricks to Boost Adversarial Transferability [5.803095119348021]
ホワイトボックス設定で生成された逆例は、しばしば異なるモデル間で低い転送可能性を示す。
そこで本研究では,既存の敵攻撃の微妙な変化が攻撃性能に大きく影響することを発見した。
既存の敵攻撃の綿密な研究に基づいて、敵の移動性を高めるためのトリックの袋を提案する。
論文 参考訳(メタデータ) (2024-01-16T17:42:36Z) - Enhancing Adversarial Attacks: The Similar Target Method [6.293148047652131]
敵対的な例は、ディープニューラルネットワークのアプリケーションに脅威をもたらす。
ディープニューラルネットワークは敵の例に対して脆弱であり、モデルのアプリケーションに脅威を与え、セキュリティ上の懸念を提起する。
我々はSimisal Target(ST)という類似の攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T14:16:36Z) - A Novel Cross-Perturbation for Single Domain Generalization [54.612933105967606]
単一ドメインの一般化は、モデルが単一のソースドメインでトレーニングされたときに未知のドメインに一般化する能力を高めることを目的としている。
トレーニングデータの限られた多様性は、ドメイン不変の特徴の学習を妨げ、結果として一般化性能を損なう。
トレーニングデータの多様性を高めるために,CPerbを提案する。
論文 参考訳(メタデータ) (2023-08-02T03:16:12Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Adversarial and Random Transformations for Robust Domain Adaptation and
Generalization [9.995765847080596]
ランダムデータ拡張による整合性トレーニングを単純に適用することで、ドメイン適応(DA)と一般化(DG)の最先端結果が得られることを示す。
逆変換とランダム変換を組み合わせた手法は、複数のDAおよびDGベンチマークデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-11-13T02:10:13Z) - Adaptive Image Transformations for Transfer-based Adversarial Attack [73.74904401540743]
適応画像変換学習(AITL)と呼ばれる新しいアーキテクチャを提案する。
精巧に設計した学習者は、入力画像固有の画像変換の最も効果的な組み合わせを適応的に選択する。
本手法は、通常訓練されたモデルと防衛モデルの両方において、各種設定下での攻撃成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-27T08:15:44Z) - Exploring Transferable and Robust Adversarial Perturbation Generation
from the Perspective of Network Hierarchy [52.153866313879924]
敵の例の移動可能性と堅牢性は、ブラックボックスの敵攻撃の実用的かつ重要な2つの性質である。
伝送可能で頑健な逆生成法(TRAP)を提案する。
我々のTRAPは、ある種の干渉に対して印象的な伝達性と高い堅牢性を実現する。
論文 参考訳(メタデータ) (2021-08-16T11:52:41Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。