論文の概要: Frequency Domain Model Augmentation for Adversarial Attack
- arxiv url: http://arxiv.org/abs/2207.05382v1
- Date: Tue, 12 Jul 2022 08:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 14:35:37.230593
- Title: Frequency Domain Model Augmentation for Adversarial Attack
- Title(参考訳): 敵攻撃に対する周波数領域モデル拡張
- Authors: Yuyang Long, Qilong Zhang, Boheng Zeng, Lianli Gao, Xianglong Liu,
Jian Zhang, Jingkuan Song
- Abstract要約: ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
- 参考スコア(独自算出の注目度): 91.36850162147678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For black-box attacks, the gap between the substitute model and the victim
model is usually large, which manifests as a weak attack performance. Motivated
by the observation that the transferability of adversarial examples can be
improved by attacking diverse models simultaneously, model augmentation methods
which simulate different models by using transformed images are proposed.
However, existing transformations for spatial domain do not translate to
significantly diverse augmented models. To tackle this issue, we propose a
novel spectrum simulation attack to craft more transferable adversarial
examples against both normally trained and defense models. Specifically, we
apply a spectrum transformation to the input and thus perform the model
augmentation in the frequency domain. We theoretically prove that the
transformation derived from frequency domain leads to a diverse spectrum
saliency map, an indicator we proposed to reflect the diversity of substitute
models. Notably, our method can be generally combined with existing attacks.
Extensive experiments on the ImageNet dataset demonstrate the effectiveness of
our method, \textit{e.g.}, attacking nine state-of-the-art defense models with
an average success rate of \textbf{95.4\%}. Our code is available in
\url{https://github.com/yuyang-long/SSA}.
- Abstract(参考訳): ブラックボックス攻撃の場合、代替モデルと被害者モデルのギャップは通常大きいため、攻撃性能が弱いことが分かる。
多様なモデルを同時に攻撃することにより,逆行例の伝達性が向上できるという観測結果から,変換画像を用いて異なるモデルをシミュレートするモデル拡張手法を提案する。
しかし、既存の空間領域の変換は、著しく多様な拡張モデルに変換されない。
この問題に対処するため,我々は,通常訓練されたモデルと防御モデルの両方に対して,より転送可能な攻撃例を作成するための新しいスペクトルシミュレーション攻撃を提案する。
具体的には、入力にスペクトル変換を適用し、周波数領域におけるモデル拡張を行う。
周波数領域から導出される変換が,代用モデルの多様性を反映する指標として,スペクトル塩分率マップの多様性につながることを理論的に証明する。
特に,本手法は既存の攻撃と組み合わせることができる。
imagenetデータセットに関する広範な実験は、平均成功率95.4\%で9つの最先端の防御モデルを攻撃する方法である \textit{e.g.} の有効性を示している。
私たちのコードは \url{https://github.com/yuyang-long/SSA} で利用可能です。
関連論文リスト
- Scaling Laws for Black box Adversarial Attacks [37.744814957775965]
敵の例では、クロスモデル転送可能性を示し、ブラックボックスモデルを攻撃することができる。
モデルアンサンブルは、複数のサロゲートモデルを同時に攻撃することで、転送可能性を改善する効果的な戦略である。
スケールされた攻撃はセマンティクスにおいてより良い解釈可能性をもたらし、モデルの共通の特徴がキャプチャーされることを示す。
論文 参考訳(メタデータ) (2024-11-25T08:14:37Z) - Boosting Adversarial Transferability with Learnable Patch-wise Masks [16.46210182214551]
敵の例は、異なるモデル間での転送可能性のため、セキュリティクリティカルなアプリケーションで広く注目を集めている。
本稿では、モデル固有の識別領域が、ソースモデルに過度に適合し、ターゲットモデルへの転送可能性を低減する重要な要因であると論じる。
これらの領域を正確にローカライズするために,マスクの自動最適化のための学習可能なアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-28T05:32:22Z) - Rethinking Model Ensemble in Transfer-based Adversarial Attacks [46.82830479910875]
転送可能性を改善する効果的な戦略は、モデルのアンサンブルを攻撃することである。
これまでの作業は、単に異なるモデルの出力を平均化するだけであった。
我々は、より移動可能な敵の例を生成するために、CWA(Common Weakness Attack)を提案する。
論文 参考訳(メタデータ) (2023-03-16T06:37:16Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Minimizing Maximum Model Discrepancy for Transferable Black-box Targeted
Attacks [30.863450425927613]
モデル差分の観点から,ブラックボックスの標的攻撃問題について検討する。
我々は,ブラックボックス攻撃に対する一般化誤差を提示し,攻撃の成功を保証するための厳密な理論的解析を行う。
我々は理論解析に基づいてブラックボックス攻撃のための新しいアルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-12-18T08:19:08Z) - Enhancing Targeted Attack Transferability via Diversified Weight Pruning [0.3222802562733786]
悪意のある攻撃者は、画像に人間の知覚できないノイズを与えることによって、標的となる敵の例を生成することができる。
クロスモデル転送可能な敵の例では、モデル情報が攻撃者から秘密にされている場合でも、ニューラルネットワークの脆弱性は残る。
近年の研究では, エンサンブル法の有効性が示されている。
論文 参考訳(メタデータ) (2022-08-18T07:25:48Z) - Beyond ImageNet Attack: Towards Crafting Adversarial Examples for
Black-box Domains [80.11169390071869]
敵対的な例は、転送可能な性質のため、ディープニューラルネットワークに深刻な脅威をもたらしている。
ブラックボックス領域への転送可能性を調べるために,Beyond ImageNet Attack (BIA)を提案する。
提案手法は, 最先端手法を最大7.71%(粗粒領域)と25.91%(細粒領域)で平均的に上回っている。
論文 参考訳(メタデータ) (2022-01-27T14:04:27Z) - Cross-Modal Transferable Adversarial Attacks from Images to Videos [82.0745476838865]
近年の研究では、一方のホワイトボックスモデルで手作りされた敵の例は、他のブラックボックスモデルを攻撃するために使用できることが示されている。
本稿では,イメージ・トゥ・ビデオ(I2V)攻撃と呼ばれる,シンプルだが効果的なクロスモーダル・アタック手法を提案する。
I2Vは、事前訓練された画像モデルの特徴と良質な例とのコサイン類似性を最小化して、対向フレームを生成する。
論文 参考訳(メタデータ) (2021-12-10T08:19:03Z) - Training Meta-Surrogate Model for Transferable Adversarial Attack [98.13178217557193]
クエリーを許可しない場合、ブラックボックスモデルに対する逆攻撃を考える。
この設定では、多くの手法が代理モデルを直接攻撃し、得られた敵の例をターゲットモデルを騙すために転送する。
メタサロゲートモデル(Meta-Surrogate Model:MSM)は,このモデルに対する攻撃が,他のモデルに容易に転送できることを示す。
論文 参考訳(メタデータ) (2021-09-05T03:27:46Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。