論文の概要: Boosting Adversarial Transferability across Model Genus by
Deformation-Constrained Warping
- arxiv url: http://arxiv.org/abs/2402.03951v1
- Date: Tue, 6 Feb 2024 12:23:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 14:52:18.473960
- Title: Boosting Adversarial Transferability across Model Genus by
Deformation-Constrained Warping
- Title(参考訳): 変形拘束型ワーピングによるモデル属間の逆移動性の向上
- Authors: Qinliang Lin, Cheng Luo, Zenghao Niu, Xilin He, Weicheng Xie, Yuanbo
Hou, Linlin Shen, Siyang Song
- Abstract要約: 変形抑制型ウォーピング攻撃(DeCoWA)と呼ばれる,新規で汎用的な攻撃戦略を提案する。
具体的には、DeCoWAは弾性変形、すなわち変形抑制ウォーピング(DeCoW)によって入力例を増強する。
ランダムな変形によって導かれる大域的意味論の激しい歪みを避けるため、DeCoWは新たな適応制御戦略によりワープ変換の強度と方向を制約する。
- 参考スコア(独自算出の注目度): 34.07483413460022
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial examples generated by a surrogate model typically exhibit limited
transferability to unknown target systems. To address this problem, many
transferability enhancement approaches (e.g., input transformation and model
augmentation) have been proposed. However, they show poor performances in
attacking systems having different model genera from the surrogate model. In
this paper, we propose a novel and generic attacking strategy, called
Deformation-Constrained Warping Attack (DeCoWA), that can be effectively
applied to cross model genus attack. Specifically, DeCoWA firstly augments
input examples via an elastic deformation, namely Deformation-Constrained
Warping (DeCoW), to obtain rich local details of the augmented input. To avoid
severe distortion of global semantics led by random deformation, DeCoW further
constrains the strength and direction of the warping transformation by a novel
adaptive control strategy. Extensive experiments demonstrate that the
transferable examples crafted by our DeCoWA on CNN surrogates can significantly
hinder the performance of Transformers (and vice versa) on various tasks,
including image classification, video action recognition, and audio
recognition. Code is made available at https://github.com/LinQinLiang/DeCoWA.
- Abstract(参考訳): 代理モデルによって生成された逆例は、典型的には未知のターゲット系への限定的な転送可能性を示す。
この問題に対処するために,多くのトランスファービリティ向上手法(入力変換やモデル拡張など)が提案されている。
しかし,サロゲートモデルと異なるモデル遺伝子を持つ攻撃システムでは,性能が低かった。
本稿では,変形抑制ウォーピング攻撃 (DeCoWA) と呼ばれる新規で汎用的な攻撃戦略を提案する。
具体的には、decowaはまず、弾性変形(decow)を介して入力例を補強し、拡張入力の豊富な局所的詳細を得る。
ランダム変形によるグローバルセマンティクスの厳密な歪みを回避するため、新たな適応制御戦略により、経年変化の強さと方向をさらに制約する。
CNNサロゲート上でのDeCoWAによる転送可能な例は、画像分類、ビデオアクション認識、音声認識など、様々なタスクにおけるトランスフォーマーの性能(およびその逆)を著しく阻害することを示した。
コードはhttps://github.com/linqinliang/decowaで入手できる。
関連論文リスト
- Boosting the Targeted Transferability of Adversarial Examples via Salient Region & Weighted Feature Drop [2.176586063731861]
敵攻撃に対する一般的なアプローチは、敵の例の転送可能性に依存する。
SWFD(Salient Region & Weighted Feature Drop)をベースとした新しいフレームワークは,敵対的事例のターゲット転送可能性を高める。
論文 参考訳(メタデータ) (2024-11-11T08:23:37Z) - Bag of Tricks to Boost Adversarial Transferability [5.803095119348021]
ホワイトボックス設定で生成された逆例は、しばしば異なるモデル間で低い転送可能性を示す。
そこで本研究では,既存の敵攻撃の微妙な変化が攻撃性能に大きく影響することを発見した。
既存の敵攻撃の綿密な研究に基づいて、敵の移動性を高めるためのトリックの袋を提案する。
論文 参考訳(メタデータ) (2024-01-16T17:42:36Z) - An Adaptive Model Ensemble Adversarial Attack for Boosting Adversarial
Transferability [26.39964737311377]
我々はAdaEAと呼ばれる適応型アンサンブル攻撃を提案し、各モデルからの出力の融合を適応的に制御する。
我々は、様々なデータセットに対する既存のアンサンブル攻撃よりも大幅に改善した。
論文 参考訳(メタデータ) (2023-08-05T15:12:36Z) - Common Knowledge Learning for Generating Transferable Adversarial
Examples [60.1287733223249]
本稿では,代用(ソース)モデルにより敵のサンプルを生成するブラックボックス攻撃の重要タイプに着目した。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャのものである場合、不満足な逆転が生じる傾向にある。
本稿では,より優れたネットワーク重みを学習し,敵対的な例を生成するための共通知識学習(CKL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-01T09:07:12Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - Comment on Transferability and Input Transformation with Additive Noise [6.168976174718275]
加算雑音による伝達性と入力変換の関係を解析する。
良心的な例に小さな摂動を加えることで、敵対的な攻撃は、ディープラーニングモデルの誤分類につながる敵の例をうまく生成する。
論文 参考訳(メタデータ) (2022-06-18T00:52:27Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。