論文の概要: MaskBlock: Transferable Adversarial Examples with Bayes Approach
- arxiv url: http://arxiv.org/abs/2208.06538v1
- Date: Sat, 13 Aug 2022 01:20:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 13:34:44.264890
- Title: MaskBlock: Transferable Adversarial Examples with Bayes Approach
- Title(参考訳): MaskBlock:ベイズアプローチによるトランスファー可能な逆例
- Authors: Mingyuan Fan, Cen Chen, Ximeng Liu, Wenzhong Guo
- Abstract要約: 多様なモデルにまたがる敵の例の移動性は、ブラックボックスの敵攻撃において重要である。
我々は,バニラブラックボックスが最大推定(MLE)問題を解くことでAEを攻撃していることを示す。
本研究では,工芸品の転送可能なAEを,限られたデータで結果の一般化を促進する効果的な手法である後続確率推定問題の最大化として再定式化する。
- 参考スコア(独自算出の注目度): 35.237713022434235
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The transferability of adversarial examples (AEs) across diverse models is of
critical importance for black-box adversarial attacks, where attackers cannot
access the information about black-box models. However, crafted AEs always
present poor transferability. In this paper, by regarding the transferability
of AEs as generalization ability of the model, we reveal that vanilla black-box
attacks craft AEs via solving a maximum likelihood estimation (MLE) problem.
For MLE, the results probably are model-specific local optimum when available
data is small, i.e., limiting the transferability of AEs. By contrast, we
re-formulate crafting transferable AEs as the maximizing a posteriori
probability estimation problem, which is an effective approach to boost the
generalization of results with limited available data. Because Bayes posterior
inference is commonly intractable, a simple yet effective method called
MaskBlock is developed to approximately estimate. Moreover, we show that the
formulated framework is a generalization version for various attack methods.
Extensive experiments illustrate MaskBlock can significantly improve the
transferability of crafted adversarial examples by up to about 20%.
- Abstract(参考訳): 多様なモデルにわたる敵の例(AE)の転送性は、攻撃者がブラックボックスモデルに関する情報にアクセスできないブラックボックスの敵攻撃において重要である。
しかし、工芸品のAEは常に輸送性に乏しい。
本稿では,モデルの一般化能力としてのAEsの転送可能性について,最大推定(MLE)問題を解くことにより,バニラブラックボックスがAEsを攻撃していることを明らかにする。
MLEの場合、結果はおそらく、利用可能なデータが小さい場合、つまりAEsの転送可能性を制限するモデル固有の局所最適化である。
対照的に,aesを後続確率推定問題の最大化問題として再定式化し,限られたデータで結果の一般化を促進するための効果的なアプローチである。
ベイズ後方推定は一般に難解なため、近似推定のためにマスクブロックと呼ばれる単純かつ効果的な手法が開発されている。
さらに, この定式化フレームワークは, 各種攻撃手法の一般化版であることを示す。
広範囲な実験により、マスクブロックは、手作りの敵対的な例の転送性を最大20%向上させることが示されている。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Enhancing Adversarial Transferability with Adversarial Weight Tuning [36.09966860069978]
敵対的な例(AE)は、人間の観察者に対して良心を抱きながらモデルを誤解させた。
AWTは、勾配に基づく攻撃法とモデルに基づく攻撃法を組み合わせて、AEの転送可能性を高めるデータフリーチューニング手法である。
論文 参考訳(メタデータ) (2024-08-18T13:31:26Z) - Enhancing targeted transferability via feature space fine-tuning [21.131915084053894]
アドリラルな例(AE)は、プライバシ保護と堅牢なニューラルネットワークを刺激する可能性のために、広く研究されている。
既存の単純な反復攻撃によって作られたAEを微調整し、未知のモデル間で転送できるようにする。
論文 参考訳(メタデータ) (2024-01-05T09:46:42Z) - DifAttack: Query-Efficient Black-Box Attack via Disentangled Feature
Space [6.238161846680642]
本研究は,高攻撃成功率(ASR)と良好な一般化性を備えた,効率的なスコアベースブラックボックス攻撃について検討する。
本研究では,DifAttackと呼ばれる,DifAttackと呼ばれる不整形特徴空間に基づく新たな攻撃手法を設計する。
論文 参考訳(メタデータ) (2023-09-26T00:15:13Z) - GNP Attack: Transferable Adversarial Examples via Gradient Norm Penalty [14.82389560064876]
良好な転送性を持つ敵例(AE)は、多様なターゲットモデルに対する実用的なブラックボックス攻撃を可能にする。
GNP(Gradient Norm Penalty)を用いた新しいAE転送性向上手法を提案する。
11種類の最先端のディープラーニングモデルと6つの高度な防御手法を攻撃することにより、GNPは高い転送性を持つAEを生成するのに非常に有効であることを示す。
論文 参考訳(メタデータ) (2023-07-09T05:21:31Z) - On the Transferability of Adversarial Examples between Encrypted Models [20.03508926499504]
敵の堅牢な防御のために暗号化されたモデルの転送可能性について, 初めて検討した。
画像分類実験において、暗号化されたモデルの使用は、AEsに対して堅牢であるだけでなく、AEsの影響を低減することも確認されている。
論文 参考訳(メタデータ) (2022-09-07T08:50:26Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Decision-based Universal Adversarial Attack [55.76371274622313]
ブラックボックス設定では、現在の普遍的敵攻撃法は代用モデルを用いて摂動を生成する。
効率的な決定に基づくユニバーサルアタック(DUAttack)を提案する。
DUAttackの有効性は、他の最先端攻撃との比較によって検証される。
論文 参考訳(メタデータ) (2020-09-15T12:49:03Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。