論文の概要: Boosting the Adversarial Transferability of Surrogate Model with Dark
Knowledge
- arxiv url: http://arxiv.org/abs/2206.08316v1
- Date: Thu, 16 Jun 2022 17:22:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 14:44:51.109693
- Title: Boosting the Adversarial Transferability of Surrogate Model with Dark
Knowledge
- Title(参考訳): 暗黒知識を持つサロゲートモデルの逆移動性向上
- Authors: Dingcheng Yang, Zihao Xiao, Wenjian Yu
- Abstract要約: つまり、モデルに対する逆例は、非自明な確率で別のブラックボックスモデルを騙すことができる。
画像分類のためのディープニューラルネットワーク(DNN)は、敵の例に弱いことが知られている。
本研究では,サロゲートモデルが生み出す敵の移動可能性を高めるために,暗黒知識の豊富なサロゲートモデルを訓練する方法を提案する。
- 参考スコア(独自算出の注目度): 7.572358288114787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) for image classification are known to be
vulnerable to adversarial examples. And, the adversarial examples have
transferability, which means an adversarial example for a DNN model can fool
another black-box model with a non-trivial probability. This gave birth of the
transfer-based adversarial attack where the adversarial examples generated by a
pretrained or known model (called surrogate model) are used to conduct
black-box attack. There are some work on how to generate the adversarial
examples from a given surrogate model to achieve better transferability.
However, training a special surrogate model to generate adversarial examples
with better transferability is relatively under-explored. In this paper, we
propose a method of training a surrogate model with abundant dark knowledge to
boost the adversarial transferability of the adversarial examples generated by
the surrogate model. This trained surrogate model is named dark surrogate model
(DSM), and the proposed method to train DSM consists of two key components: a
teacher model extracting dark knowledge and providing soft labels, and the
mixing augmentation skill which enhances the dark knowledge of training data.
Extensive experiments have been conducted to show that the proposed method can
substantially improve the adversarial transferability of surrogate model across
different architectures of surrogate model and optimizers for generating
adversarial examples. We also show that the proposed method can be applied to
other scenarios of transfer-based attack that contain dark knowledge, like face
verification.
- Abstract(参考訳): 画像分類のためのディープニューラルネットワーク(DNN)は、敵の例に弱いことが知られている。
また、逆の例には転送可能性があり、つまり、dnnモデルの逆の例では、非自明な確率で別のブラックボックスモデルを騙すことができる。
これにより、トレーニング済みまたは既知のモデル(サロゲートモデルと呼ばれる)によって生成された敵の例がブラックボックス攻撃に使用される転送ベースの敵攻撃が生まれた。
より優れた転送可能性を達成するために、与えられた代理モデルから逆例を生成する方法がいくつかある。
しかし、転送性が向上した敵対的な例を生成するための特別なサロゲートモデルの訓練は、比較的未検討である。
本稿では,暗黒知識の豊富なサロゲートモデルを用いて,サロゲートモデルが生成する逆例の逆移動可能性を高めるためのトレーニング手法を提案する。
このトレーニングされたサロゲートモデルはdark surrogate model (dsm)と呼ばれ、提案されたdsmのトレーニング方法は2つの重要な要素から成り立っている: 暗知識を抽出しソフトラベルを提供する教師モデルと、トレーニングデータの暗黒知識を強化する混合強化スキルである。
提案手法は,サロゲートモデルとオプティマイザの異なるアーキテクチャにおけるサロゲートモデルの逆転性を大幅に向上し,逆転例を生成することができることを示した。
また,提案手法は顔認証などの暗黒知識を含む移動攻撃の他のシナリオにも適用可能であることを示す。
関連論文リスト
- Common Knowledge Learning for Generating Transferable Adversarial
Examples [60.1287733223249]
本稿では,代用(ソース)モデルにより敵のサンプルを生成するブラックボックス攻撃の重要タイプに着目した。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャのものである場合、不満足な逆転が生じる傾向にある。
本稿では,より優れたネットワーク重みを学習し,敵対的な例を生成するための共通知識学習(CKL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-01T09:07:12Z) - Generating Adversarial Examples with Better Transferability via Masking
Unimportant Parameters of Surrogate Model [6.737574282249396]
非重要マスキングパラメータ(MUP)を用いた転送攻撃における敵例の転送可能性の向上を提案する。
MUPのキーとなるアイデアは、事前訓練されたサロゲートモデルを洗練して、転送ベースの攻撃を強化することである。
論文 参考訳(メタデータ) (2023-04-14T03:06:43Z) - Towards Understanding and Boosting Adversarial Transferability from a
Distribution Perspective [80.02256726279451]
近年,ディープニューラルネットワーク(DNN)に対する敵対的攻撃が注目されている。
本稿では,画像の分布を操作することで,敵の例を再現する新しい手法を提案する。
本手法は,攻撃の伝達性を大幅に向上させ,未目標シナリオと目標シナリオの両方において最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-09T09:58:51Z) - Training Meta-Surrogate Model for Transferable Adversarial Attack [98.13178217557193]
クエリーを許可しない場合、ブラックボックスモデルに対する逆攻撃を考える。
この設定では、多くの手法が代理モデルを直接攻撃し、得られた敵の例をターゲットモデルを騙すために転送する。
メタサロゲートモデル(Meta-Surrogate Model:MSM)は,このモデルに対する攻撃が,他のモデルに容易に転送できることを示す。
論文 参考訳(メタデータ) (2021-09-05T03:27:46Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。