論文の概要: Attack as Defense: Characterizing Adversarial Examples using Robustness
- arxiv url: http://arxiv.org/abs/2103.07633v1
- Date: Sat, 13 Mar 2021 06:29:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 13:52:05.357569
- Title: Attack as Defense: Characterizing Adversarial Examples using Robustness
- Title(参考訳): 防衛としての攻撃:ロバスト性を用いた敵対的例の特定
- Authors: Zhe Zhao, Guangke Chen, Jingyi Wang, Yiwei Yang, Fu Song, Jun Sun
- Abstract要約: 本稿では,攻撃を防御(A2D)と呼ぶ新しい防御フレームワークを提案する。
A2Dは、堅牢性評価のために入力を攻撃するコストを使用し、これらの堅牢度の低い例を逆数と識別します。
MNIST、CIFAR10、ImageNetの実験結果は、A2Dが最近の有望なアプローチよりも効果的であることを示している。
- 参考スコア(独自算出の注目度): 9.020456982421958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a new programming paradigm, deep learning has expanded its application to
many real-world problems. At the same time, deep learning based software are
found to be vulnerable to adversarial attacks. Though various defense
mechanisms have been proposed to improve robustness of deep learning software,
many of them are ineffective against adaptive attacks. In this work, we propose
a novel characterization to distinguish adversarial examples from benign ones
based on the observation that adversarial examples are significantly less
robust than benign ones. As existing robustness measurement does not scale to
large networks, we propose a novel defense framework, named attack as defense
(A2D), to detect adversarial examples by effectively evaluating an example's
robustness. A2D uses the cost of attacking an input for robustness evaluation
and identifies those less robust examples as adversarial since less robust
examples are easier to attack. Extensive experiment results on MNIST, CIFAR10
and ImageNet show that A2D is more effective than recent promising approaches.
We also evaluate our defence against potential adaptive attacks and show that
A2D is effective in defending carefully designed adaptive attacks, e.g., the
attack success rate drops to 0% on CIFAR10.
- Abstract(参考訳): 新しいプログラミングパラダイムとして、ディープラーニングは多くの現実世界の問題に応用を広げた。
同時に、ディープラーニングベースのソフトウェアは、敵の攻撃に対して脆弱であることが分かる。
ディープラーニングソフトウェアの堅牢性を改善するために様々な防御メカニズムが提案されているが、その多くは適応攻撃に対して効果的ではない。
本研究では,敵対例が敵対例よりも著しく堅牢でないという観測に基づいて,敵対例と良性例を区別する新しい特徴付けを提案する。
既存のロバスト性測定が大規模ネットワークにスケールしないため,本研究では,サンプルのロバスト性を効果的に評価することにより,敵対的事例を検出するための新しい防御フレームワークであるattack as defense (a2d)を提案する。
a2dは入力を攻撃してロバスト性を評価するコストを使い、ロバスト性の低い例の方が攻撃しやすいため、これらのロバスト性の低い例を敵視する。
MNIST、CIFAR10、ImageNetの広範な実験結果は、A2Dが最近の有望なアプローチよりも効果的であることを示しています。
また、潜在的なアダプティブ攻撃に対する防御を評価し、A2Dが慎重に設計されたアダプティブ攻撃、例えばCIFAR10の攻撃成功率は0%に低下する。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Improving behavior based authentication against adversarial attack using XAI [3.340314613771868]
本稿では,eXplainable AI(XAI)をベースとした,このようなシナリオにおける敵攻撃に対する防御戦略を提案する。
本手法で訓練した特徴セレクタは,元の認証器の前のフィルタとして使用することができる。
我々は,XAIをベースとした防衛戦略が敵の攻撃に対して有効であり,他の防衛戦略よりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-02-26T09:29:05Z) - Benchmarking and Analyzing Robust Point Cloud Recognition: Bag of Tricks
for Defending Adversarial Examples [25.029854308139853]
3Dポイントクラウド上の敵の例は、2Dイメージ上のものよりも防御が難しい。
本稿では、まず、総合的で厳密なクラウド対逆ロバスト性ベンチマークを確立する。
次に、これらのトリックの効果的な組み合わせを特定するために、広範囲かつ体系的な実験を行う。
我々は、様々な攻撃に対して平均83.45%の精度を達成する、より堅牢な防御フレームワークを構築した。
論文 参考訳(メタデータ) (2023-07-31T01:34:24Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Are Adversarial Examples Created Equal? A Learnable Weighted Minimax
Risk for Robustness under Non-uniform Attacks [70.11599738647963]
敵の訓練は、強力な攻撃に耐える数少ない防衛の1つである。
従来の防御機構は、基礎となるデータ分布に従って、サンプルに対する均一な攻撃を前提とします。
非一様攻撃に対して重み付けされたミニマックスリスク最適化を提案する。
論文 参考訳(メタデータ) (2020-10-24T21:20:35Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。