論文の概要: MaskBlock: Transferable Adversarial Examples with Bayes Approach
- arxiv url: http://arxiv.org/abs/2208.06538v1
- Date: Sat, 13 Aug 2022 01:20:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 13:34:44.264890
- Title: MaskBlock: Transferable Adversarial Examples with Bayes Approach
- Title(参考訳): MaskBlock:ベイズアプローチによるトランスファー可能な逆例
- Authors: Mingyuan Fan, Cen Chen, Ximeng Liu, Wenzhong Guo
- Abstract要約: 多様なモデルにまたがる敵の例の移動性は、ブラックボックスの敵攻撃において重要である。
我々は,バニラブラックボックスが最大推定(MLE)問題を解くことでAEを攻撃していることを示す。
本研究では,工芸品の転送可能なAEを,限られたデータで結果の一般化を促進する効果的な手法である後続確率推定問題の最大化として再定式化する。
- 参考スコア(独自算出の注目度): 35.237713022434235
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The transferability of adversarial examples (AEs) across diverse models is of
critical importance for black-box adversarial attacks, where attackers cannot
access the information about black-box models. However, crafted AEs always
present poor transferability. In this paper, by regarding the transferability
of AEs as generalization ability of the model, we reveal that vanilla black-box
attacks craft AEs via solving a maximum likelihood estimation (MLE) problem.
For MLE, the results probably are model-specific local optimum when available
data is small, i.e., limiting the transferability of AEs. By contrast, we
re-formulate crafting transferable AEs as the maximizing a posteriori
probability estimation problem, which is an effective approach to boost the
generalization of results with limited available data. Because Bayes posterior
inference is commonly intractable, a simple yet effective method called
MaskBlock is developed to approximately estimate. Moreover, we show that the
formulated framework is a generalization version for various attack methods.
Extensive experiments illustrate MaskBlock can significantly improve the
transferability of crafted adversarial examples by up to about 20%.
- Abstract(参考訳): 多様なモデルにわたる敵の例(AE)の転送性は、攻撃者がブラックボックスモデルに関する情報にアクセスできないブラックボックスの敵攻撃において重要である。
しかし、工芸品のAEは常に輸送性に乏しい。
本稿では,モデルの一般化能力としてのAEsの転送可能性について,最大推定(MLE)問題を解くことにより,バニラブラックボックスがAEsを攻撃していることを明らかにする。
MLEの場合、結果はおそらく、利用可能なデータが小さい場合、つまりAEsの転送可能性を制限するモデル固有の局所最適化である。
対照的に,aesを後続確率推定問題の最大化問題として再定式化し,限られたデータで結果の一般化を促進するための効果的なアプローチである。
ベイズ後方推定は一般に難解なため、近似推定のためにマスクブロックと呼ばれる単純かつ効果的な手法が開発されている。
さらに, この定式化フレームワークは, 各種攻撃手法の一般化版であることを示す。
広範囲な実験により、マスクブロックは、手作りの敵対的な例の転送性を最大20%向上させることが示されている。
関連論文リスト
- Boosting the Targeted Transferability of Adversarial Examples via Salient Region & Weighted Feature Drop [2.176586063731861]
敵攻撃に対する一般的なアプローチは、敵の例の転送可能性に依存する。
SWFD(Salient Region & Weighted Feature Drop)をベースとした新しいフレームワークは,敵対的事例のターゲット転送可能性を高める。
論文 参考訳(メタデータ) (2024-11-11T08:23:37Z) - Efficient Generation of Targeted and Transferable Adversarial Examples for Vision-Language Models Via Diffusion Models [17.958154849014576]
大規模視覚言語モデル(VLM)のロバスト性を評価するために、敵対的攻撃を用いることができる。
従来のトランスファーベースの敵攻撃は、高いイテレーション数と複雑なメソッド構造により、高いコストを発生させる。
本稿では, 拡散モデルを用いて, 自然, 制約のない, 対象とする対向的な例を生成するAdvDiffVLMを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:19:52Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Generating Adversarial Examples with Better Transferability via Masking
Unimportant Parameters of Surrogate Model [6.737574282249396]
非重要マスキングパラメータ(MUP)を用いた転送攻撃における敵例の転送可能性の向上を提案する。
MUPのキーとなるアイデアは、事前訓練されたサロゲートモデルを洗練して、転送ベースの攻撃を強化することである。
論文 参考訳(メタデータ) (2023-04-14T03:06:43Z) - Rethinking Model Ensemble in Transfer-based Adversarial Attacks [46.82830479910875]
転送可能性を改善する効果的な戦略は、モデルのアンサンブルを攻撃することである。
これまでの作業は、単に異なるモデルの出力を平均化するだけであった。
我々は、より移動可能な敵の例を生成するために、CWA(Common Weakness Attack)を提案する。
論文 参考訳(メタデータ) (2023-03-16T06:37:16Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Towards Understanding and Boosting Adversarial Transferability from a
Distribution Perspective [80.02256726279451]
近年,ディープニューラルネットワーク(DNN)に対する敵対的攻撃が注目されている。
本稿では,画像の分布を操作することで,敵の例を再現する新しい手法を提案する。
本手法は,攻撃の伝達性を大幅に向上させ,未目標シナリオと目標シナリオの両方において最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-09T09:58:51Z) - Training Meta-Surrogate Model for Transferable Adversarial Attack [98.13178217557193]
クエリーを許可しない場合、ブラックボックスモデルに対する逆攻撃を考える。
この設定では、多くの手法が代理モデルを直接攻撃し、得られた敵の例をターゲットモデルを騙すために転送する。
メタサロゲートモデル(Meta-Surrogate Model:MSM)は,このモデルに対する攻撃が,他のモデルに容易に転送できることを示す。
論文 参考訳(メタデータ) (2021-09-05T03:27:46Z) - Direction-Aggregated Attack for Transferable Adversarial Examples [10.208465711975242]
深層ニューラルネットワークは、入力に知覚不可能な変化を課すことによって作られる敵の例に弱い。
逆例は、モデルとそのパラメータが利用可能なホワイトボックス設定で最も成功した。
我々は,移動可能な攻撃事例を提供する方向集約型攻撃を提案する。
論文 参考訳(メタデータ) (2021-04-19T09:54:56Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。