論文の概要: Exploring Transferable and Robust Adversarial Perturbation Generation
from the Perspective of Network Hierarchy
- arxiv url: http://arxiv.org/abs/2108.07033v1
- Date: Mon, 16 Aug 2021 11:52:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 14:59:50.857375
- Title: Exploring Transferable and Robust Adversarial Perturbation Generation
from the Perspective of Network Hierarchy
- Title(参考訳): ネットワーク階層の観点からの移動可能かつロバストな対向摂動生成の探索
- Authors: Ruikui Wang, Yuanfang Guo, Ruijie Yang and Yunhong Wang
- Abstract要約: 敵の例の移動可能性と堅牢性は、ブラックボックスの敵攻撃の実用的かつ重要な2つの性質である。
伝送可能で頑健な逆生成法(TRAP)を提案する。
我々のTRAPは、ある種の干渉に対して印象的な伝達性と高い堅牢性を実現する。
- 参考スコア(独自算出の注目度): 52.153866313879924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The transferability and robustness of adversarial examples are two practical
yet important properties for black-box adversarial attacks. In this paper, we
explore effective mechanisms to boost both of them from the perspective of
network hierarchy, where a typical network can be hierarchically divided into
output stage, intermediate stage and input stage. Since over-specialization of
source model, we can hardly improve the transferability and robustness of the
adversarial perturbations in the output stage. Therefore, we focus on the
intermediate and input stages in this paper and propose a transferable and
robust adversarial perturbation generation (TRAP) method. Specifically, we
propose the dynamically guided mechanism to continuously calculate accurate
directional guidances for perturbation generation in the intermediate stage. In
the input stage, instead of the single-form transformation augmentations
adopted in the existing methods, we leverage multiform affine transformation
augmentations to further enrich the input diversity and boost the robustness
and transferability of the adversarial perturbations. Extensive experiments
demonstrate that our TRAP achieves impressive transferability and high
robustness against certain interferences.
- Abstract(参考訳): 攻撃例の転送性とロバスト性は、ブラックボックス攻撃の実用的かつ重要な2つの特性である。
本稿では,ネットワーク階層の観点から,ネットワークを階層的に分類し,出力ステージ,中間ステージ,入力ステージに分類できる効果的な機構について検討する。
ソースモデルの超特殊化により,出力段階における逆摂動の伝達性とロバスト性が向上することがほとんどない。
そこで本論文では,中間段階と入力段階に着目し,伝送可能かつ頑健な逆摂動生成(TRAP)法を提案する。
具体的には,中間段階における摂動発生の正確な方向誘導を連続的に計算する動的誘導機構を提案する。
入力段階では、既存手法で採用されている単一形式変換拡張の代わりに、多形アフィン変換拡張を利用して入力の多様性をさらに強化し、対向摂動の堅牢性と伝達性を高める。
大規模な実験により、TRAPは特定の干渉に対して印象的な伝達性と高い堅牢性を達成できることが示された。
関連論文リスト
- Semantic-Aligned Adversarial Evolution Triangle for High-Transferability Vision-Language Attack [51.16384207202798]
視覚言語事前学習モデルは多モーダル逆例(AE)に対して脆弱である
従来のアプローチでは、画像とテキストのペアを拡大して、敵対的なサンプル生成プロセス内での多様性を高めている。
本稿では, 敵の多様性を高めるために, クリーン, ヒストリ, および現在の敵の例からなる敵の進化三角形からのサンプリングを提案する。
論文 参考訳(メタデータ) (2024-11-04T23:07:51Z) - Towards Transferable Adversarial Attacks with Centralized Perturbation [4.689122927344728]
逆転性により未知のディープニューラルネットワーク(DNN)に対するブラックボックス攻撃が可能に
現行の転送可能な攻撃は、画像全体に対する敵の摂動を引き起こし、結果として過度なノイズが発生し、ソースモデルに過度に適合する。
本稿では,周波数領域における微細な摂動を最適化し,集中的な摂動を生成するトランスファー可能な対向攻撃を提案する。
論文 参考訳(メタデータ) (2023-12-11T08:25:50Z) - Improving Adversarial Transferability by Stable Diffusion [36.97548018603747]
敵対的な例は 良心サンプルに 知覚不能な摂動を導入 予測を欺く
ディープニューラルネットワーク(Deep Neural Network, DNN)は、良性サンプルに知覚不能な摂動を導入し、予測を誤認する敵の例に影響を受けやすい。
本稿では,SDAM(Stable Diffusion Attack Method)と呼ばれる新しい攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T09:10:07Z) - Why Does Little Robustness Help? Understanding and Improving Adversarial
Transferability from Surrogate Training [24.376314203167016]
DNNの逆例(AE)は転送可能であることが示されている。
本稿では,敵対的伝達可能性の理解に向けてさらなる一歩を踏み出す。
論文 参考訳(メタデータ) (2023-07-15T19:20:49Z) - Cross-modal Orthogonal High-rank Augmentation for RGB-Event
Transformer-trackers [58.802352477207094]
本研究では,2つのモード間の分布ギャップを埋めるために,事前学習された視覚変換器(ViT)の潜在可能性を探る。
本研究では,いくつかのトークンの特定のモダリティをランダムにマスキングし,異なるモダリティのトークン間の相互作用を積極的に行うマスクモデリング戦略を提案する。
実験により,我々のプラグアンドプレイトレーニング強化技術は,追跡精度と成功率の両方の観点から,最先端のワンストリームと2つのトラッカーストリームを大幅に向上させることができることが示された。
論文 参考訳(メタデータ) (2023-07-09T08:58:47Z) - Improving Adversarial Transferability via Intermediate-level
Perturbation Decay [79.07074710460012]
我々は,一段階の最適化で敵の例を再現する新しい中間レベル手法を開発した。
実験結果から, 種々の犠牲者モデルに対する攻撃において, 最先端技術よりも大きな差が認められた。
論文 参考訳(メタデータ) (2023-04-26T09:49:55Z) - Evade the Trap of Mediocrity: Promoting Diversity and Novelty in Text
Generation via Concentrating Attention [85.5379146125199]
強力なトランスフォーマーアーキテクチャは高品質な文を生成するのに優れていることが証明されている。
本研究では,Transformerにおけるスペーサーの注意値が多様性を向上させることを発見した。
注意分布のシャープさを制御するために,新しい注意正規化損失を導入する。
論文 参考訳(メタデータ) (2022-11-14T07:53:16Z) - XAI for Transformers: Better Explanations through Conservative
Propagation [60.67748036747221]
変換器の勾配は局所的にのみ関数を反映しており、入力特徴の予測への寄与を確実に識別できないことを示す。
我々の提案は、よく確立されたLPP法のトランスフォーマーへの適切な拡張と見なすことができる。
論文 参考訳(メタデータ) (2022-02-15T10:47:11Z) - Can we have it all? On the Trade-off between Spatial and Adversarial
Robustness of Neural Networks [21.664470275289403]
簡単な統計的条件下で,空間的ロバスト性と対角的ロバスト性の間に定量的なトレードオフを証明した。
本研究では,より困難な摂動(空間的・対角的)を段階的に訓練し,空間的・対角的ロバスト性を同時に向上させるカリキュラム学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-02-26T06:25:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。