論文の概要: Efficient and Transferable Adversarial Examples from Bayesian Neural
Networks
- arxiv url: http://arxiv.org/abs/2011.05074v4
- Date: Sat, 18 Jun 2022 20:00:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 06:46:25.838978
- Title: Efficient and Transferable Adversarial Examples from Bayesian Neural
Networks
- Title(参考訳): ベイズニューラルネットワークの効率的かつ転送可能な逆例
- Authors: Martin Gubri, Maxime Cordy, Mike Papadakis, Yves Le Traon, Koushik Sen
- Abstract要約: 本稿では,ニューラルネットワーク重みの後方分布から近似的にサンプリングすることで,サロゲートを効率的に構築する手法を提案する。
ImageNetでは、トレーニング計算を11.6から2.4に削減しながら、成功率の94%に達することができる。
我々の研究は、サロゲートの訓練方法が見過ごされていることを示しているが、これは転送ベースの攻撃の重要な要素である。
- 参考スコア(独自算出の注目度): 18.69033059038773
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An established way to improve the transferability of black-box evasion
attacks is to craft the adversarial examples on an ensemble-based surrogate to
increase diversity. We argue that transferability is fundamentally related to
uncertainty. Based on a state-of-the-art Bayesian Deep Learning technique, we
propose a new method to efficiently build a surrogate by sampling approximately
from the posterior distribution of neural network weights, which represents the
belief about the value of each parameter. Our extensive experiments on
ImageNet, CIFAR-10 and MNIST show that our approach improves the success rates
of four state-of-the-art attacks significantly (up to 83.2 percentage points),
in both intra-architecture and inter-architecture transferability. On ImageNet,
our approach can reach 94% of success rate while reducing training computations
from 11.6 to 2.4 exaflops, compared to an ensemble of independently trained
DNNs. Our vanilla surrogate achieves 87.5% of the time higher transferability
than three test-time techniques designed for this purpose. Our work
demonstrates that the way to train a surrogate has been overlooked, although it
is an important element of transfer-based attacks. We are, therefore, the first
to review the effectiveness of several training methods in increasing
transferability. We provide new directions to better understand the
transferability phenomenon and offer a simple but strong baseline for future
work.
- Abstract(参考訳): ブラックボックス回避攻撃の転送性を改善するための確立された方法は、多様性を高めるためにアンサンブルベースのサロゲート上で敵対的な例を作成することである。
我々は、転送性は基本的に不確実性と関連していると主張する。
本稿では,最先端のベイズ深層学習手法に基づいて,ニューラルネットワーク重みの後方分布から推定し,各パラメータの値に対する信念を推定し,サーロゲートを効率的に構築する手法を提案する。
imagenet, cifar-10, mnistに関する広範な実験により,我々は,アーキテクチャ内およびアーキテクチャ間における4つの攻撃成功率(最大83.2ポイント)を有意に向上させた。
imagenetでは、独立に訓練されたdnnのアンサンブルに比べて、トレーニング計算を11.6から2.4exaflopsに削減しながら、成功率の94%に達することができる。
私たちのバニラサロゲートは、この目的のために設計された3つのテストタイム技術よりも87.5%高い転送性を達成しています。
我々の研究は、転送ベースの攻撃の重要な要素であるが、サロゲートの訓練方法が見過ごされていることを示している。
そこで,本研究では,トランスファー性向上におけるトレーニング手法の有効性を最初に検討する。
トランスファービリティ現象をよりよく理解するための新しい方向性を提供し、将来の作業にシンプルだが強力なベースラインを提供します。
関連論文リスト
- S$^4$ST: A Strong, Self-transferable, faSt, and Simple Scale Transformation for Transferable Targeted Attack [15.32139337298543]
ディープニューラルネットワークに対するTTA(Transferable Targeted Adversarial attacks)は、標的外攻撃よりもはるかに難しいことが証明されている。
本報告では, 簡易勾配ベースラインを利用した高効率かつ転送可能なターゲットアタックについて, 新たな光を当てる。
論文 参考訳(メタデータ) (2024-10-13T11:39:13Z) - Simple Transferability Estimation for Regression Tasks [15.156533945366979]
線形回帰モデルの負の正則化平均二乗誤差に基づいて、転送可能性を評価するための単純で効率的な2つのアプローチを提案する。
その単純さにもかかわらず、我々のアプローチは、精度と効率の両面で既存の最先端の回帰移動率推定器よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-12-01T15:30:54Z) - Making Substitute Models More Bayesian Can Enhance Transferability of
Adversarial Examples [89.85593878754571]
ディープニューラルネットワークにおける敵の例の転送可能性は多くのブラックボックス攻撃の欠如である。
我々は、望ましい転送可能性を達成するためにベイズモデルを攻撃することを提唱する。
我々の手法は近年の最先端を大きなマージンで上回る。
論文 参考訳(メタデータ) (2023-02-10T07:08:13Z) - Identifying Suitable Tasks for Inductive Transfer Through the Analysis
of Feature Attributions [78.55044112903148]
我々は、単一タスクモデル間のニューラルネットワークアクティベーションの比較を通じて、タスクペアが相補的になるかどうかを予測するために、説明可能性技術を使用する。
提案手法により,TREC-IS 2020-Aデータセットでは,正のクラスF1の0.034の削減に留まらず,最大83.5%のトレーニング時間を短縮することが可能である。
論文 参考訳(メタデータ) (2022-02-02T15:51:07Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z) - Frustratingly Easy Transferability Estimation [64.42879325144439]
本稿では,TransRate という,シンプルで効率的かつ効果的な転送可能性尺度を提案する。
TransRateは、事前訓練されたモデルによって抽出された対象サンプルの特徴とそれらのラベルとの間の相互情報として、転送可能性を測定する。
10行のコードで並外れた単純さにもかかわらず、TransRateは、22の事前訓練されたモデルと16のダウンストリームタスクに対する広範囲な評価において、非常にうまく機能している。
論文 参考訳(メタデータ) (2021-06-17T10:27:52Z) - Improving Adversarial Transferability with Gradient Refining [7.045900712659982]
逆の例は、人間の知覚できない摂動を原画像に加えることによって作られる。
ディープニューラルネットワークは、原画像に人間に知覚不能な摂動を加えることによって作られる逆転例に対して脆弱である。
論文 参考訳(メタデータ) (2021-05-11T07:44:29Z) - Boosting Adversarial Transferability through Enhanced Momentum [50.248076722464184]
深層学習モデルは、人間の知覚できない摂動を良心的なイメージに加えることで、敵の例に弱い。
さまざまな運動量反復勾配に基づく方法が逆転性を改善するのに有効であることが示されている。
本稿では,逆伝達性をさらに高めるために,運動量反復勾配に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-19T03:10:32Z) - Defense-guided Transferable Adversarial Attacks [5.2206166148727835]
敵の例は未知のモデルに 移行するのは困難です
我々は、敵攻撃と防御の両方に有効な入力変換にインスパイアされた最大限のフレームワークを設計する。
本手法は,深層モデルの堅牢性を評価するためのベンチマークとして期待されている。
論文 参考訳(メタデータ) (2020-10-22T08:51:45Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。