論文の概要: Transferable Adversarial Examples with Bayes Approach
- arxiv url: http://arxiv.org/abs/2208.06538v2
- Date: Tue, 07 Jan 2025 08:52:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:48:25.438826
- Title: Transferable Adversarial Examples with Bayes Approach
- Title(参考訳): ベイズアプローチによる移動可能な逆数例
- Authors: Mingyuan Fan, Cen Chen, Wenmeng Zhou, Yinggui Wang,
- Abstract要約: ブラックボックスの敵攻撃は、信頼できるAIにおいて最も熱いトピックの1つである。
本稿では,ベイズ的アプローチのレンズを用いた逆例の転送可能性について検討する。
実験は、より移動可能な敵の例を作る上で、BayAtkの有意義な効果を示す。
- 参考スコア(独自算出の注目度): 15.35252941167733
- License:
- Abstract: The vulnerability of deep neural networks (DNNs) to black-box adversarial attacks is one of the most heated topics in trustworthy AI. In such attacks, the attackers operate without any insider knowledge of the model, making the cross-model transferability of adversarial examples critical. Despite the potential for adversarial examples to be effective across various models, it has been observed that adversarial examples that are specifically crafted for a specific model often exhibit poor transferability. In this paper, we explore the transferability of adversarial examples via the lens of Bayesian approach. Specifically, we leverage Bayesian approach to probe the transferability and then study what constitutes a transferability-promoting prior. Following this, we design two concrete transferability-promoting priors, along with an adaptive dynamic weighting strategy for instances sampled from these priors. Employing these techniques, we present BayAtk. Extensive experiments illustrate the significant effectiveness of BayAtk in crafting more transferable adversarial examples against both undefended and defended black-box models compared to existing state-of-the-art attacks.
- Abstract(参考訳): ブラックボックスの敵攻撃に対するディープニューラルネットワーク(DNN)の脆弱性は、信頼できるAIにおいて最も熱いトピックの1つである。
このような攻撃では、攻撃者はモデルについてインサイダーの知識を使わずに動作し、敵の例のクロスモデル転送性が重要となる。
様々なモデルで敵の例が有効になる可能性はあるが、特定のモデルのために特別に作られた敵の例は、しばしば移動性に乏しいことが観察されている。
本稿では,ベイズ的アプローチのレンズを用いた逆例の転送可能性について検討する。
具体的には、ベイズ的手法を用いて転送可能性の探索を行い、転送可能性の先行性を構成するものについて研究する。
次に、これらの先行例から抽出した動的重み付け戦略とともに、2つの具体的な移動可能性促進手法を設計する。
これらの技術を活用して、BayAtkを紹介します。
大規模な実験は、既存の最先端攻撃と比較して、防御されていないブラックボックスモデルと防御されたブラックボックスモデルの両方に対して、より伝達可能な敵の例を作る上で、BayAtkの有意義な効果を示している。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Enhancing Adversarial Transferability with Adversarial Weight Tuning [36.09966860069978]
敵対的な例(AE)は、人間の観察者に対して良心を抱きながらモデルを誤解させた。
AWTは、勾配に基づく攻撃法とモデルに基づく攻撃法を組み合わせて、AEの転送可能性を高めるデータフリーチューニング手法である。
論文 参考訳(メタデータ) (2024-08-18T13:31:26Z) - Enhancing targeted transferability via feature space fine-tuning [21.131915084053894]
アドリラルな例(AE)は、プライバシ保護と堅牢なニューラルネットワークを刺激する可能性のために、広く研究されている。
既存の単純な反復攻撃によって作られたAEを微調整し、未知のモデル間で転送できるようにする。
論文 参考訳(メタデータ) (2024-01-05T09:46:42Z) - DifAttack: Query-Efficient Black-Box Attack via Disentangled Feature
Space [6.238161846680642]
本研究は,高攻撃成功率(ASR)と良好な一般化性を備えた,効率的なスコアベースブラックボックス攻撃について検討する。
本研究では,DifAttackと呼ばれる,DifAttackと呼ばれる不整形特徴空間に基づく新たな攻撃手法を設計する。
論文 参考訳(メタデータ) (2023-09-26T00:15:13Z) - GNP Attack: Transferable Adversarial Examples via Gradient Norm Penalty [14.82389560064876]
良好な転送性を持つ敵例(AE)は、多様なターゲットモデルに対する実用的なブラックボックス攻撃を可能にする。
GNP(Gradient Norm Penalty)を用いた新しいAE転送性向上手法を提案する。
11種類の最先端のディープラーニングモデルと6つの高度な防御手法を攻撃することにより、GNPは高い転送性を持つAEを生成するのに非常に有効であることを示す。
論文 参考訳(メタデータ) (2023-07-09T05:21:31Z) - On the Transferability of Adversarial Examples between Encrypted Models [20.03508926499504]
敵の堅牢な防御のために暗号化されたモデルの転送可能性について, 初めて検討した。
画像分類実験において、暗号化されたモデルの使用は、AEsに対して堅牢であるだけでなく、AEsの影響を低減することも確認されている。
論文 参考訳(メタデータ) (2022-09-07T08:50:26Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Decision-based Universal Adversarial Attack [55.76371274622313]
ブラックボックス設定では、現在の普遍的敵攻撃法は代用モデルを用いて摂動を生成する。
効率的な決定に基づくユニバーサルアタック(DUAttack)を提案する。
DUAttackの有効性は、他の最先端攻撃との比較によって検証される。
論文 参考訳(メタデータ) (2020-09-15T12:49:03Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。