論文の概要: Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples
- arxiv url: http://arxiv.org/abs/2302.05086v3
- Date: Wed, 19 Jul 2023 07:31:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 17:44:18.226052
- Title: Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples
- Title(参考訳): 代替モデルのベイジアン化による逆例の伝達性向上
- Authors: Qizhang Li, Yiwen Guo, Wangmeng Zuo, Hao Chen
- Abstract要約: ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
- 参考スコア(独自算出の注目度): 89.85593878754571
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The transferability of adversarial examples across deep neural networks
(DNNs) is the crux of many black-box attacks. Many prior efforts have been
devoted to improving the transferability via increasing the diversity in inputs
of some substitute models. In this paper, by contrast, we opt for the diversity
in substitute models and advocate to attack a Bayesian model for achieving
desirable transferability. Deriving from the Bayesian formulation, we develop a
principled strategy for possible finetuning, which can be combined with many
off-the-shelf Gaussian posterior approximations over DNN parameters. Extensive
experiments have been conducted to verify the effectiveness of our method, on
common benchmark datasets, and the results demonstrate that our method
outperforms recent state-of-the-arts by large margins (roughly 19% absolute
increase in average attack success rate on ImageNet), and, by combining with
these recent methods, further performance gain can be obtained. Our code:
https://github.com/qizhangli/MoreBayesian-attack.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)にまたがる敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
代用モデルの入力の多様性を増大させることで、転送可能性の向上に多くの努力が注がれている。
本稿では,代用モデルの多様性を選択し,望ましい転送性を実現するためにベイズモデルを攻撃することを提唱する。
ベイズ方程式の定式化から導かれ,DNNパラメータよりも多くの既成ガウス後部近似と組み合わせることができるファインタニングの原理的戦略を開発した。
本手法の有効性を検証するために,共通ベンチマークデータセットを用いて広範な実験を行い,近年の最先端技術(imagenetにおける攻撃成功率の絶対値の約19%)を上回っており,これらの手法と組み合わせることで,さらなる性能向上が期待できることを示した。
私たちのコード:https://github.com/qizhangli/MoreBayesian- attack。
関連論文リスト
- Boosting the Targeted Transferability of Adversarial Examples via Salient Region & Weighted Feature Drop [2.176586063731861]
敵攻撃に対する一般的なアプローチは、敵の例の転送可能性に依存する。
SWFD(Salient Region & Weighted Feature Drop)をベースとした新しいフレームワークは,敵対的事例のターゲット転送可能性を高める。
論文 参考訳(メタデータ) (2024-11-11T08:23:37Z) - Improving the Transferability of Adversarial Examples by Feature Augmentation [6.600860987969305]
本稿では,計算コストの増大を伴わずに,対向移動性を向上する簡易かつ効果的な機能拡張攻撃法を提案する。
具体的には、攻撃勾配の多様性を増大させるために、モデルの中間特徴にランダムノイズを注入する。
提案手法は,既存の勾配攻撃と組み合わせることで,さらなる性能向上を図ることができる。
論文 参考訳(メタデータ) (2024-07-09T09:41:40Z) - Improving Adversarial Transferability by Stable Diffusion [36.97548018603747]
敵対的な例は 良心サンプルに 知覚不能な摂動を導入 予測を欺く
ディープニューラルネットワーク(Deep Neural Network, DNN)は、良性サンプルに知覚不能な摂動を導入し、予測を誤認する敵の例に影響を受けやすい。
本稿では,SDAM(Stable Diffusion Attack Method)と呼ばれる新しい攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-11-18T09:10:07Z) - Towards Evaluating Transfer-based Attacks Systematically, Practically,
and Fairly [79.07074710460012]
ディープニューラルネットワーク(DNN)の敵対的脆弱性に大きな注目を集めている。
ブラックボックスDNNモデルを騙すための転送ベース手法が増えている。
30以上のメソッドを実装した転送ベースアタックベンチマーク(TA-Bench)を確立する。
論文 参考訳(メタデータ) (2023-11-02T15:35:58Z) - Improving Transferability of Adversarial Examples via Bayesian Attacks [84.90830931076901]
モデル入力にベイズ定式化を組み込むことにより,モデル入力とモデルパラメータの共分散を可能にする新しい拡張を導入する。
提案手法は,トランスファーベース攻撃に対する新たな最先端技術を実現し,ImageNetとCIFAR-10の平均成功率をそれぞれ19.14%,2.08%向上させる。
論文 参考訳(メタデータ) (2023-07-21T03:43:07Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Boosting Adversarial Transferability through Enhanced Momentum [50.248076722464184]
深層学習モデルは、人間の知覚できない摂動を良心的なイメージに加えることで、敵の例に弱い。
さまざまな運動量反復勾配に基づく方法が逆転性を改善するのに有効であることが示されている。
本稿では,逆伝達性をさらに高めるために,運動量反復勾配に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-19T03:10:32Z) - Yet Another Intermediate-Level Attack [31.055720988792416]
ディープニューラルネットワーク(DNN)モデルにまたがる敵のサンプルの転送可能性は、ブラックボックス攻撃のスペクトルのくぼみである。
本稿では,ベースライン逆数例のブラックボックス転送性を向上させる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-20T09:14:04Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。