論文の概要: Analysis of Random Perturbations for Robust Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2002.03080v4
- Date: Sun, 7 Jun 2020 19:25:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 22:11:39.205684
- Title: Analysis of Random Perturbations for Robust Convolutional Neural
Networks
- Title(参考訳): ロバスト畳み込みニューラルネットワークのランダム摂動解析
- Authors: Adam Dziedzic, Sanjay Krishnan
- Abstract要約: 最近の研究は、ニューラルネットワークのランダムな摂動が敵の攻撃に対する堅牢性を改善することを広く示している。
トレーニング中にこれらの摂動が観察されない限り,摂動をベースとした防御は適応攻撃に対する堅牢性をほとんど示さない。
元の入力の近辺における逆の例は、第1および第2次解析における摂動に対する高い感度を示す。
- 参考スコア(独自算出の注目度): 11.325672232682903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has extensively shown that randomized perturbations of neural
networks can improve robustness to adversarial attacks. The literature is,
however, lacking a detailed compare-and-contrast of the latest proposals to
understand what classes of perturbations work, when they work, and why they
work. We contribute a detailed evaluation that elucidates these questions and
benchmarks perturbation based defenses consistently. In particular, we show
five main results: (1) all input perturbation defenses, whether random or
deterministic, are equivalent in their efficacy, (2) attacks transfer between
perturbation defenses so the attackers need not know the specific type of
defense -- only that it involves perturbations, (3) a tuned sequence of noise
layers across a network provides the best empirical robustness, (4)
perturbation based defenses offer almost no robustness to adaptive attacks
unless these perturbations are observed during training, and (5) adversarial
examples in a close neighborhood of original inputs show an elevated
sensitivity to perturbations in first and second-order analyses.
- Abstract(参考訳): 最近の研究は、ニューラルネットワークのランダムな摂動が敵の攻撃に対する堅牢性を改善することを広く示している。
しかし、これらの文献は、摂動のどのクラスが機能するのか、いつ、なぜ働くのかを理解するための最新の提案の詳細な比較と矛盾を欠いている。
我々はこれらの疑問とベンチマークに基づく防御を一貫して解明する詳細な評価に貢献する。
In particular, we show five main results: (1) all input perturbation defenses, whether random or deterministic, are equivalent in their efficacy, (2) attacks transfer between perturbation defenses so the attackers need not know the specific type of defense -- only that it involves perturbations, (3) a tuned sequence of noise layers across a network provides the best empirical robustness, (4) perturbation based defenses offer almost no robustness to adaptive attacks unless these perturbations are observed during training, and (5) adversarial examples in a close neighborhood of original inputs show an elevated sensitivity to perturbations in first and second-order analyses.
関連論文リスト
- Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Towards an Accurate and Secure Detector against Adversarial
Perturbations [58.02078078305753]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然・人工データの識別的分解を通じて、敵対的なパターンを検出する。
本研究では,秘密鍵を用いた空間周波数判別分解に基づく,高精度かつセキュアな対向検波器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Interpretability is a Kind of Safety: An Interpreter-based Ensemble for
Adversary Defense [28.398901783858005]
我々は,強固な防御敵に対するX-Ensembleと呼ばれるインタプリタベースのアンサンブルフレームワークを提案する。
X-エンサンブルはランダムフォレスト(RF)モデルを用いて、準検出器をアンサンブル検出器に結合し、敵のハイブリッド攻撃防御を行う。
論文 参考訳(メタデータ) (2023-04-14T04:32:06Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - How many perturbations break this model? Evaluating robustness beyond
adversarial accuracy [28.934863462633636]
入力点と摂動方向の制約の両方が与えられた摂動を成功させることがいかに困難であるかを定量化する。
空間性は、ニューラルネットワークに関する貴重な洞察を、複数の方法で提供することを示す。
論文 参考訳(メタデータ) (2022-07-08T21:25:17Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Exploring Misclassifications of Robust Neural Networks to Enhance
Adversarial Attacks [3.3248768737711045]
我々は、敵の攻撃に対して堅牢であるように訓練された19種類の最先端ニューラルネットワークの分類決定を分析する。
敵攻撃に対する新たな損失関数を提案し,攻撃成功率を継続的に改善する。
論文 参考訳(メタデータ) (2021-05-21T12:10:38Z) - Resilience of Bayesian Layer-Wise Explanations under Adversarial Attacks [3.222802562733787]
決定論的ニューラルネットワークでは,攻撃が失敗した場合でも,サリエンシ解釈が著しく脆弱であることを示す。
ベイジアンニューラルネットワークによるサリエンシの説明は, 対向的摂動下ではかなり安定していることを示す。
論文 参考訳(メタデータ) (2021-02-22T14:07:24Z) - Towards Understanding the Dynamics of the First-Order Adversaries [40.54670072901657]
ニューラルネットワークの弱点として認識されているのは、入力に対する敵の摂動に対する脆弱性である。
最も一般的な防御機構の1つは、投射された上昇を使って入力の制約された摂動による損失を最大化し、重量を最小化することである。
二次的損失を有する2層ニューラルネットワークの逆方向の非凹面環境について検討する。
論文 参考訳(メタデータ) (2020-10-20T22:20:53Z) - Proper Network Interpretability Helps Adversarial Robustness in
Classification [91.39031895064223]
本稿では,解釈の適切な測定を行うことで,予測回避攻撃が解釈の不一致を引き起こすのを防ぐことは困難であることを示す。
我々は,頑健な解釈の促進にのみ焦点をあてて,解釈可能性に配慮した防御手法を開発した。
その結果,我々の防衛力は,強靭な分類と頑健な解釈の両方を達成し,大規模な摂動攻撃に対する最先端の対人訓練方法よりも優れていた。
論文 参考訳(メタデータ) (2020-06-26T01:31:31Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。