論文の概要: Generating Adversarial Inputs Using A Black-box Differential Technique
- arxiv url: http://arxiv.org/abs/2007.05315v1
- Date: Fri, 10 Jul 2020 11:25:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 21:32:18.720573
- Title: Generating Adversarial Inputs Using A Black-box Differential Technique
- Title(参考訳): ブラックボックス差分法による逆入力の生成
- Authors: Jo\~ao Batista Pereira Matos Ju\'unior, Lucas Carvalho Cordeiro,
Marcelo d'Amorim, Xiaowei Huang
- Abstract要約: 悪意のあるエージェントは、入力を他のエージェントに摂動させることで敵攻撃を開始する。
逆入力生成のための最初のブラックボックス差分法であるDAEGENを提案する。
実験の結果,DAEGENは最先端のブラックボックス攻撃法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 10.062802463541951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Networks (NNs) are known to be vulnerable to adversarial attacks. A
malicious agent initiates these attacks by perturbing an input into another one
such that the two inputs are classified differently by the NN. In this paper,
we consider a special class of adversarial examples, which can exhibit not only
the weakness of NN models - as do for the typical adversarial examples - but
also the different behavior between two NN models. We call them
difference-inducing adversarial examples or DIAEs. Specifically, we propose
DAEGEN, the first black-box differential technique for adversarial input
generation. DAEGEN takes as input two NN models of the same classification
problem and reports on output an adversarial example. The obtained adversarial
example is a DIAE, so that it represents a point-wise difference in the input
space between the two NN models. Algorithmically, DAEGEN uses a local
search-based optimization algorithm to find DIAEs by iteratively perturbing an
input to maximize the difference of two models on predicting the input. We
conduct experiments on a spectrum of benchmark datasets (e.g., MNIST, ImageNet,
and Driving) and NN models (e.g., LeNet, ResNet, Dave, and VGG). Experimental
results are promising. First, we compare DAEGEN with two existing white-box
differential techniques (DeepXplore and DLFuzz) and find that under the same
setting, DAEGEN is 1) effective, i.e., it is the only technique that succeeds
in generating attacks in all cases, 2) precise, i.e., the adversarial attacks
are very likely to fool machines and humans, and 3) efficient, i.e, it requires
a reasonable number of classification queries. Second, we compare DAEGEN with
state-of-the-art black-box adversarial attack methods (simba and tremba), by
adapting them to work on a differential setting. The experimental results show
that DAEGEN performs better than both of them.
- Abstract(参考訳): ニューラルネットワーク(NN)は敵の攻撃に弱いことが知られている。
悪意のあるエージェントは、2つの入力をnnによって分類するように別の入力を摂動させることでこれらの攻撃を開始する。
本稿では, NNモデルの弱点を示すだけでなく, 2つのNNモデルの異なる振る舞いを示す特別クラスについて考察する。
差分誘導敵例(DIAE)と呼ぶ。
具体的には、逆入力生成のための最初のブラックボックス差分法であるDAEGENを提案する。
DAEGENは、同じ分類問題の2つのNNモデルとして入力され、逆の例を出力する。
得られた逆の例はDIAEであり、2つのNNモデル間の入力空間のポイントワイド差を表す。
アルゴリズム的には、ローカル検索に基づく最適化アルゴリズムを使用して、入力を反復的に摂動させることで、入力予測における2つのモデルの差を最大化する。
我々は、ベンチマークデータセット(例えば、MNIST、ImageNet、Driving)とNNモデル(例えば、LeNet、ResNet、Dave、VGG)で実験を行う。
実験結果は有望だ。
まず、DAEGENと既存の2つのホワイトボックス差分法(DeepXploreとDLFuzz)を比較し、同じ条件下でDAEGENが同じであることを示す。
1)効果的、すなわち、すべての場合において攻撃を発生させるのに成功する唯一の技術である。
2)正確には、すなわち、敵の攻撃は、機械や人間を騙す可能性が非常に高い。
3) 効率的,すなわち,適切な数の分類クエリを必要とする。
第2に,daegenと最先端のブラックボックス攻撃法(simbaとtremba)を比較し,これらを差分設定に適応させる。
実験の結果, DAEGENは両者よりも優れた性能を示した。
関連論文リスト
- DiffGAN: A Test Generation Approach for Differential Testing of Deep Neural Networks [0.30292136896203486]
DiffGANはディープニューラルネットワーク(DNN)の差分テストのためのブラックボックステスト画像生成手法である
それは多様で有効なトリガー入力を生成し、モデル間の振る舞いの相違を明らかにする。
その結果、DiffGANはSOTAベースラインを著しく上回り、同じ予算内で4倍のインプットをトリガーし、多様性と妥当性が向上した。
論文 参考訳(メタデータ) (2024-10-15T23:49:01Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Case-Aware Adversarial Training [23.52109746711528]
敵の訓練(AT)は、敵の例(AE)を守る最も効果的な方法と考えられている。
Case-Aware Adversarial Training (CAT)は、汎用的で効率的なAT改善スキームである。
CATはバニラATよりも最大3倍速く、競争力のある防御効果を達成できる。
論文 参考訳(メタデータ) (2022-04-20T11:43:58Z) - A Uniform Framework for Anomaly Detection in Deep Neural Networks [0.5099811144731619]
異常入力のクラスを3つ検討する。
1)DNNとは異なる分布からの自然な入力は、OOD(Out-of-Distribution)サンプルとして訓練される。
2) 攻撃者によるIDから生成された入力は、しばしば敵(AD)サンプルとして知られ、(3)無意味なデータから生成されたノイズ(NS)サンプルである。
事前学習したDNNに対して,これらすべての異常を検出することを目的としたフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-06T22:42:30Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - ECINN: Efficient Counterfactuals from Invertible Neural Networks [80.94500245955591]
本稿では, 画像分類における可逆ニューラルネットワークの生成能力を利用して, 対実例を効率的に生成する手法ECINNを提案する。
ECINNはクローズドフォーム表現を持ち、たった2つの評価の時点で反事実を生成する。
私たちの実験では、ECINNがクラス依存イメージ領域を変更して、反現実の知覚的および予測的クラスを変更する方法を示す。
論文 参考訳(メタデータ) (2021-03-25T09:23:24Z) - ManiGen: A Manifold Aided Black-box Generator of Adversarial Examples [4.509133544449485]
適応的な例は、人間の目によって無視される特別な摂動を持つ入力である。
ManiGen は多様体に沿って探索することで逆例を生成する。
ManiGenは、最先端の防御でより効果的に分類器を攻撃することができる。
論文 参考訳(メタデータ) (2020-07-11T17:34:17Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z) - Type I Attack for Generative Models [16.525823302000877]
VAEやGANなどの生成モデルに対するI型攻撃を提案する。
本手法は,大規模画像データセットにおける生成モデルに対するタイプIの逆例を生成するのに有効である。
論文 参考訳(メタデータ) (2020-03-04T03:20:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。