論文の概要: Boosting the Adversarial Transferability of Surrogate Models with Dark
Knowledge
- arxiv url: http://arxiv.org/abs/2206.08316v2
- Date: Tue, 5 Sep 2023 05:33:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 12:04:27.517432
- Title: Boosting the Adversarial Transferability of Surrogate Models with Dark
Knowledge
- Title(参考訳): 暗黒知識を持つサロゲートモデルの逆移動性向上
- Authors: Dingcheng Yang, Zihao Xiao, Wenjian Yu
- Abstract要約: ディープニューラルネットワーク(DNN)は、敵の例に対して脆弱である。
つまり、DNNモデルの逆例は、非自明な確率で他のモデルを騙すことができる。
本稿では,サロゲートモデルが生み出す逆例の転送可能性を高めるために,暗知識を用いたサロゲートモデルを訓練する手法を提案する。
- 参考スコア(独自算出の注目度): 5.702679709305404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are vulnerable to adversarial examples. And, the
adversarial examples have transferability, which means that an adversarial
example for a DNN model can fool another model with a non-trivial probability.
This gave birth to the transfer-based attack where the adversarial examples
generated by a surrogate model are used to conduct black-box attacks. There are
some work on generating the adversarial examples from a given surrogate model
with better transferability. However, training a special surrogate model to
generate adversarial examples with better transferability is relatively
under-explored. This paper proposes a method for training a surrogate model
with dark knowledge to boost the transferability of the adversarial examples
generated by the surrogate model. This trained surrogate model is named dark
surrogate model (DSM). The proposed method for training a DSM consists of two
key components: a teacher model extracting dark knowledge, and the mixing
augmentation skill enhancing dark knowledge of training data. We conducted
extensive experiments to show that the proposed method can substantially
improve the adversarial transferability of surrogate models across different
architectures of surrogate models and optimizers for generating adversarial
examples, and it can be applied to other scenarios of transfer-based attack
that contain dark knowledge, like face verification. Our code is publicly
available at \url{https://github.com/ydc123/Dark_Surrogate_Model}.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は敵の例に弱い。
そして、逆の例は転送可能性を持ち、つまり、DNNモデルの逆の例は、非自明な確率で他のモデルを騙すことができる。
これにより転送ベースの攻撃が発生し、サロゲートモデルによって生成された敵の例がブラックボックス攻撃に使用される。
より優れた転送性を持つ与えられた代理モデルから逆例を生成するための研究がある。
しかし、転送性が向上した敵対的な例を生成するための特別なサロゲートモデルの訓練は、比較的未検討である。
本稿では,サロゲートモデルが生成する逆例の伝達性を高めるために,暗知識を持つサロゲートモデルのトレーニング手法を提案する。
この訓練されたサロゲートモデルはダークサロゲートモデル (DSM) と呼ばれる。
提案手法は,暗黒知識を抽出する教師モデルと,学習データの暗黒知識を高める混合強化スキルの2つの主成分からなる。
提案手法は,サロゲートモデルとオプティマイザの異なるアーキテクチャにおけるサロゲートモデルの逆転可能性を大幅に向上し,顔認証などの暗黒知識を含む移動攻撃のシナリオに適用可能であることを示す。
我々のコードは \url{https://github.com/ydc123/dark_surrogate_model} で公開されている。
関連論文リスト
- Common Knowledge Learning for Generating Transferable Adversarial
Examples [60.1287733223249]
本稿では,代用(ソース)モデルにより敵のサンプルを生成するブラックボックス攻撃の重要タイプに着目した。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャのものである場合、不満足な逆転が生じる傾向にある。
本稿では,より優れたネットワーク重みを学習し,敵対的な例を生成するための共通知識学習(CKL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-01T09:07:12Z) - Generating Adversarial Examples with Better Transferability via Masking
Unimportant Parameters of Surrogate Model [6.737574282249396]
非重要マスキングパラメータ(MUP)を用いた転送攻撃における敵例の転送可能性の向上を提案する。
MUPのキーとなるアイデアは、事前訓練されたサロゲートモデルを洗練して、転送ベースの攻撃を強化することである。
論文 参考訳(メタデータ) (2023-04-14T03:06:43Z) - Towards Understanding and Boosting Adversarial Transferability from a
Distribution Perspective [80.02256726279451]
近年,ディープニューラルネットワーク(DNN)に対する敵対的攻撃が注目されている。
本稿では,画像の分布を操作することで,敵の例を再現する新しい手法を提案する。
本手法は,攻撃の伝達性を大幅に向上させ,未目標シナリオと目標シナリオの両方において最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-09T09:58:51Z) - Training Meta-Surrogate Model for Transferable Adversarial Attack [98.13178217557193]
クエリーを許可しない場合、ブラックボックスモデルに対する逆攻撃を考える。
この設定では、多くの手法が代理モデルを直接攻撃し、得られた敵の例をターゲットモデルを騙すために転送する。
メタサロゲートモデル(Meta-Surrogate Model:MSM)は,このモデルに対する攻撃が,他のモデルに容易に転送できることを示す。
論文 参考訳(メタデータ) (2021-09-05T03:27:46Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。