論文の概要: Minimizing Maximum Model Discrepancy for Transferable Black-box Targeted
Attacks
- arxiv url: http://arxiv.org/abs/2212.09035v1
- Date: Sun, 18 Dec 2022 08:19:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 15:27:16.282233
- Title: Minimizing Maximum Model Discrepancy for Transferable Black-box Targeted
Attacks
- Title(参考訳): 移動可能なブラックボックス攻撃に対する最大モデル差最小化
- Authors: Anqi Zhao, Tong Chu, Yahao Liu, Wen Li, Jingjing Li, Lixin Duan
- Abstract要約: モデル差分の観点から,ブラックボックスの標的攻撃問題について検討する。
我々は,ブラックボックス攻撃に対する一般化誤差を提示し,攻撃の成功を保証するための厳密な理論的解析を行う。
我々は理論解析に基づいてブラックボックス攻撃のための新しいアルゴリズムを導出する。
- 参考スコア(独自算出の注目度): 30.863450425927613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we study the black-box targeted attack problem from the model
discrepancy perspective. On the theoretical side, we present a generalization
error bound for black-box targeted attacks, which gives a rigorous theoretical
analysis for guaranteeing the success of the attack. We reveal that the attack
error on a target model mainly depends on empirical attack error on the
substitute model and the maximum model discrepancy among substitute models. On
the algorithmic side, we derive a new algorithm for black-box targeted attacks
based on our theoretical analysis, in which we additionally minimize the
maximum model discrepancy(M3D) of the substitute models when training the
generator to generate adversarial examples. In this way, our model is capable
of crafting highly transferable adversarial examples that are robust to the
model variation, thus improving the success rate for attacking the black-box
model. We conduct extensive experiments on the ImageNet dataset with different
classification models, and our proposed approach outperforms existing
state-of-the-art methods by a significant margin. Our codes will be released.
- Abstract(参考訳): 本研究では,ブラックボックス標的攻撃問題をモデル不一致の観点から検討する。
理論的には,ブラックボックス標的攻撃に限定した一般化誤差を提示し,攻撃の成功を保証するための厳密な理論的解析を行う。
対象モデルに対する攻撃誤差は,代用モデルに対する経験的攻撃誤差と代用モデル間の最大モデル差に依存することが明らかとなった。
アルゴリズム側では,我々の理論解析に基づいてブラックボックス攻撃に対する新たなアルゴリズムを導出し,生成器を訓練して敵の例を生成する際に代用モデルの最大モデル差(M3D)を最小化する。
このようにして、モデル変動に頑健な高度に伝達可能な逆数例を作成でき、ブラックボックスモデルに対する攻撃の成功率を向上させることができる。
我々は,異なる分類モデルを用いたImageNetデータセットの広範な実験を行い,提案手法は既存の最先端手法よりも優れた性能を示す。
私たちのコードはリリースされます。
関連論文リスト
- Efficient Black-box Adversarial Attacks via Bayesian Optimization Guided by a Function Prior [36.101904669291436]
本稿では,入力クエリの出力フィードバックのみを用いて,ブラックボックスモデルに対するサンプル生成を目的としたブラックボックス逆攻撃について検討する。
ブラックボックス攻撃前の大域関数として代理モデルを利用する事前誘導ベイズ最適化(P-BO)アルゴリズムを提案する。
後悔境界に関する理論的解析は、P-BOの性能が悪影響を受けていることを示唆している。
論文 参考訳(メタデータ) (2024-05-29T14:05:16Z) - Defense Against Model Extraction Attacks on Recommender Systems [53.127820987326295]
本稿では、モデル抽出攻撃に対するリコメンデータシステムに対する防御のために、グラディエントベースのランキング最適化(GRO)を導入する。
GROは、攻撃者の代理モデルの損失を最大化しながら、保護対象モデルの損失を最小限にすることを目的としている。
その結果,モデル抽出攻撃に対するGROの防御効果は良好であった。
論文 参考訳(メタデータ) (2023-10-25T03:30:42Z) - Understanding the Robustness of Randomized Feature Defense Against
Query-Based Adversarial Attacks [23.010308600769545]
ディープニューラルネットワークは、元の画像に近いサンプルを見つける敵の例に弱いが、モデルを誤分類させる可能性がある。
モデル中間層における隠れた特徴にランダムノイズを付加することにより,ブラックボックス攻撃に対する簡易かつ軽量な防御法を提案する。
本手法は,スコアベースと決定ベースの両方のブラックボックス攻撃に対するモデルのレジリエンスを効果的に向上させる。
論文 参考訳(メタデータ) (2023-10-01T03:53:23Z) - Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - Training Meta-Surrogate Model for Transferable Adversarial Attack [98.13178217557193]
クエリーを許可しない場合、ブラックボックスモデルに対する逆攻撃を考える。
この設定では、多くの手法が代理モデルを直接攻撃し、得られた敵の例をターゲットモデルを騙すために転送する。
メタサロゲートモデル(Meta-Surrogate Model:MSM)は,このモデルに対する攻撃が,他のモデルに容易に転送できることを示す。
論文 参考訳(メタデータ) (2021-09-05T03:27:46Z) - Query-free Black-box Adversarial Attacks on Graphs [37.88689315688314]
そこで,攻撃者は対象モデルについて知識がなく,クエリーアクセスも行わないグラフに対して,クエリフリーなブラックボックス攻撃を提案する。
対象モデルに対するフリップリンクの影響をスペクトル変化によって定量化できることを証明し,固有値摂動理論を用いて近似する。
その単純さとスケーラビリティのため、提案モデルは様々なグラフベースモデルで一般的なだけでなく、異なる知識レベルがアクセス可能であれば容易に拡張できる。
論文 参考訳(メタデータ) (2020-12-12T08:52:56Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Orthogonal Deep Models As Defense Against Black-Box Attacks [71.23669614195195]
攻撃者が標的モデルに類似したモデルを用いて攻撃を発生させるブラックボックス設定における深層モデル固有の弱点について検討する。
本稿では,深部モデルの内部表現を他のモデルに直交させる新しい勾配正規化手法を提案する。
様々な大規模モデルにおいて,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2020-06-26T08:29:05Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。