論文の概要: Black-box Adversarial Sample Generation Based on Differential Evolution
- arxiv url: http://arxiv.org/abs/2007.15310v1
- Date: Thu, 30 Jul 2020 08:43:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 13:13:53.452033
- Title: Black-box Adversarial Sample Generation Based on Differential Evolution
- Title(参考訳): 差分進化に基づくブラックボックス逆サンプル生成
- Authors: Junyu Lin, Lei Xu, Yingqi Liu, Xiangyu Zhang
- Abstract要約: 我々は、ディープニューラルネットワーク(DNN)の堅牢性をテストするブラックボックス手法を提案する。
この手法はターゲットDNNの構造や重量に関する知識を一切必要としない。
実験結果から,本手法は逆検体の生成に100%成功し,誤分類を誘発できることが示唆された。
- 参考スコア(独自算出の注目度): 18.82850158275813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are being used in various daily tasks such as
object detection, speech processing, and machine translation. However, it is
known that DNNs suffer from robustness problems -- perturbed inputs called
adversarial samples leading to misbehaviors of DNNs. In this paper, we propose
a black-box technique called Black-box Momentum Iterative Fast Gradient Sign
Method (BMI-FGSM) to test the robustness of DNN models. The technique does not
require any knowledge of the structure or weights of the target DNN. Compared
to existing white-box testing techniques that require accessing model internal
information such as gradients, our technique approximates gradients through
Differential Evolution and uses approximated gradients to construct adversarial
samples. Experimental results show that our technique can achieve 100% success
in generating adversarial samples to trigger misclassification, and over 95%
success in generating samples to trigger misclassification to a specific target
output label. It also demonstrates better perturbation distance and better
transferability. Compared to the state-of-the-art black-box technique, our
technique is more efficient. Furthermore, we conduct testing on the commercial
Aliyun API and successfully trigger its misbehavior within a limited number of
queries, demonstrating the feasibility of real-world black-box attack.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、オブジェクト検出、音声処理、機械翻訳など、さまざまな日常的なタスクで使用されている。
しかし、DNNが堅牢性の問題に悩まされることは知られており、DNNの誤動作につながる敵のサンプルと呼ばれる混乱した入力が知られている。
本稿では,DNNモデルのロバスト性をテストするため,Black-box Momentum Iterative Fast Gradient Sign Method (BMI-FGSM) と呼ばれるブラックボックス手法を提案する。
この手法はターゲットDNNの構造や重量に関する知識を一切必要としない。
グラデーションなどのモデル内部情報へのアクセスを必要とする既存のホワイトボックス試験手法と比較して、微分進化を通じて勾配を近似し、近似勾配を用いて対向サンプルを構築する。
実験結果から,本手法は誤分類の引き金となる敵のサンプル生成に100%成功し,特定のターゲット出力ラベルに誤分類を誘発するサンプル生成に95%以上成功した。
また、摂動距離が向上し、転送性も向上する。
最先端のブラックボックス技術と比較すると,より効率的である。
さらに、商用のAliyun API上でテストを行い、限られたクエリでその誤動作をトリガーし、実世界のブラックボックス攻撃の可能性を示す。
関連論文リスト
- Microbial Genetic Algorithm-based Black-box Attack against Interpretable
Deep Learning Systems [16.13790238416691]
ホワイトボックス環境では、解釈可能なディープラーニングシステム(IDLS)が悪意のある操作に対して脆弱であることが示されている。
本稿では,IDLSに対するクエリ効率の高いScoreベースのブラックボックス攻撃QuScoreを提案する。
論文 参考訳(メタデータ) (2023-07-13T00:08:52Z) - General Adversarial Defense Against Black-box Attacks via Pixel Level
and Feature Level Distribution Alignments [75.58342268895564]
我々は,DGN(Deep Generative Networks)と新たなトレーニング機構を併用して,分散ギャップを解消する。
トレーニングされたDGNは、画素値の変換により、敵サンプルとターゲットDNNのクリーンな分布を整列する。
我々の戦略はブラックボックス攻撃に対するその独特な効果と汎用性を実証している。
論文 参考訳(メタデータ) (2022-12-11T01:51:31Z) - Instance Attack:An Explanation-based Vulnerability Analysis Framework
Against DNNs for Malware Detection [0.0]
本稿では,インスタンスベースの攻撃の概念を提案する。
我々の方式は解釈可能であり、ブラックボックス環境でも機能する。
提案手法はブラックボックス設定で動作し,その結果をドメイン知識で検証することができる。
論文 参考訳(メタデータ) (2022-09-06T12:41:20Z) - Boosting Black-Box Adversarial Attacks with Meta Learning [0.0]
本稿では,代用モデル上でメタ対向摂動(MAP)を訓練し,モデルの勾配を推定してブラックボックス攻撃を行うハイブリッドアタック手法を提案する。
本手法は攻撃成功率を向上するだけでなく,他の手法と比較してクエリ数を減少させる。
論文 参考訳(メタデータ) (2022-03-28T09:32:48Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Query-Efficient Black-box Adversarial Attacks Guided by a Transfer-based
Prior [50.393092185611536]
対象モデルの勾配にアクセスできることなく、敵が敵の例を作らなければならないブラックボックスの敵設定を考える。
従来の手法では、代用ホワイトボックスモデルの転送勾配を用いたり、モデルクエリのフィードバックに基づいて真の勾配を近似しようとした。
偏りサンプリングと勾配平均化に基づく2つの事前誘導型ランダム勾配フリー(PRGF)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-13T04:06:27Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Perturbing Across the Feature Hierarchy to Improve Standard and Strict
Blackbox Attack Transferability [100.91186458516941]
我々は、ディープニューラルネットワーク(DNN)画像分類器の領域におけるブラックボックス転送に基づく敵攻撃脅威モデルを検討する。
我々は,多層摂動が可能なフレキシブルアタックフレームワークを設計し,最先端のターゲット転送性能を示す。
提案手法が既存の攻撃戦略より優れている理由を解析し,ブラックボックスモデルに対する限られたクエリが許された場合に,メソッドの拡張を示す。
論文 参考訳(メタデータ) (2020-04-29T16:00:13Z) - Towards Query-Efficient Black-Box Adversary with Zeroth-Order Natural
Gradient Descent [92.4348499398224]
ブラックボックスの敵攻撃手法は、実用性や単純さから特に注目されている。
敵攻撃を設計するためのゼロ階自然勾配降下法(ZO-NGD)を提案する。
ZO-NGDは、最先端攻撃法と比較して、モデルクエリの複雑さが大幅に低い。
論文 参考訳(メタデータ) (2020-02-18T21:48:54Z) - REST: Performance Improvement of a Black Box Model via RL-based Spatial
Transformation [15.691668909002892]
ブラックボックス画像分類器が与えられる特定の条件下での幾何変換に対するロバスト性について検討する。
我々は,入力データをブラックボックスモデルで非分布と見なされるサンプルに変換する学習者,EmphREinforcement Spatial Transform (REST)を提案する。
論文 参考訳(メタデータ) (2020-02-16T16:15:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。