論文の概要: On the Minimal Adversarial Perturbation for Deep Neural Networks with
Provable Estimation Error
- arxiv url: http://arxiv.org/abs/2201.01235v1
- Date: Tue, 4 Jan 2022 16:40:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 13:36:02.868295
- Title: On the Minimal Adversarial Perturbation for Deep Neural Networks with
Provable Estimation Error
- Title(参考訳): 推定誤差が証明可能な深層ニューラルネットワークの最小逆摂動について
- Authors: Fabio Brau, Giulio Rossolini, Alessandro Biondi and Giorgio Buttazzo
- Abstract要約: 敵の摂動の存在は、証明可能な堅牢性に関する興味深い研究ラインを開いた。
検証可能な結果は、コミットしたエラーを見積り、バウンドするものではない。
本稿では,最小対向摂動を求めるための2つの軽量戦略を提案する。
その結果, 提案手法は, 分類に近い試料の理論的距離とロバスト性を近似し, 敵攻撃に対する確実な保証が得られた。
- 参考スコア(独自算出の注目度): 65.51757376525798
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although Deep Neural Networks (DNNs) have shown incredible performance in
perceptive and control tasks, several trustworthy issues are still open. One of
the most discussed topics is the existence of adversarial perturbations, which
has opened an interesting research line on provable techniques capable of
quantifying the robustness of a given input. In this regard, the Euclidean
distance of the input from the classification boundary denotes a well-proved
robustness assessment as the minimal affordable adversarial perturbation.
Unfortunately, computing such a distance is highly complex due the non-convex
nature of NNs. Despite several methods have been proposed to address this
issue, to the best of our knowledge, no provable results have been presented to
estimate and bound the error committed. This paper addresses this issue by
proposing two lightweight strategies to find the minimal adversarial
perturbation. Differently from the state-of-the-art, the proposed approach
allows formulating an error estimation theory of the approximate distance with
respect to the theoretical one. Finally, a substantial set of experiments is
reported to evaluate the performance of the algorithms and support the
theoretical findings. The obtained results show that the proposed strategies
approximate the theoretical distance for samples close to the classification
boundary, leading to provable robustness guarantees against any adversarial
attacks.
- Abstract(参考訳): Deep Neural Networks(DNN)は、知覚と制御のタスクにおいて驚くほどのパフォーマンスを示しているが、いくつかの信頼できる問題がまだ残っている。
最も議論されたトピックの1つは、与えられた入力の頑健さを定量化できる証明可能な技術に関する興味深い研究ラインを開設した対向摂動の存在である。
この点において、分類境界からの入力のユークリッド距離は、最小限の安価な対向摂動として十分に証明されたロバスト性評価を示す。
残念ながら、NNの非凸性のため、そのような距離の計算は非常に複雑である。
この問題に対処するためにいくつかの方法が提案されているが、私たちの知る限りでは、提案した誤りを推定してバウンドする証明可能な結果は提示されていない。
本稿では,最小対向摂動を求める2つの軽量戦略を提案し,この問題に対処する。
最先端とは違って,提案手法では近似距離の誤差推定理論を理論値に対して定式化することができる。
最後に、アルゴリズムの性能を評価し、理論的な結果を支持するために、かなりの実験が報告されている。
その結果, 提案手法は, 分類境界に近い試料の理論的距離を近似し, 対向攻撃に対するロバスト性を保証することが示唆された。
関連論文リスト
- Efficient Nearest Neighbor based Uncertainty Estimation for Natural Language Processing Tasks [26.336947440529713]
$k$-Nearest Neearbor Uncertainty Estimation (k$NN-UE) は、隣人からの距離と、隣人のラベル存在率を利用する不確実性推定手法である。
実験の結果,提案手法は信頼性校正,選択予測,分布外検出において,ベースラインや最近の密度に基づく手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-07-02T10:33:31Z) - Doubly Robust Causal Effect Estimation under Networked Interference via Targeted Learning [24.63284452991301]
ネットワーク干渉下での2つの頑健な因果効果推定器を提案する。
具体的には,対象とする学習手法をネットワーク干渉設定に一般化する。
我々は、同定された理論条件を目標損失に変換することによって、エンドツーエンドの因果効果推定器を考案する。
論文 参考訳(メタデータ) (2024-05-06T10:49:51Z) - Benchmarking Bayesian Causal Discovery Methods for Downstream Treatment
Effect Estimation [137.3520153445413]
下流推論に重点を置く因果発見手法の評価において,顕著なギャップが存在する。
我々は,GFlowNetsに基づく新たな手法を含む,確立された7つの基本因果探索手法を評価する。
研究の結果,研究対象のアルゴリズムのいくつかは,多種多様なATEモードを効果的に捉えることができることがわかった。
論文 参考訳(メタデータ) (2023-07-11T02:58:10Z) - Bi-fidelity Evolutionary Multiobjective Search for Adversarially Robust
Deep Neural Architectures [19.173285459139592]
本稿では,双方向多目的ニューラルアーキテクチャ探索手法を提案する。
低忠実度性能予測器に加えて,高忠実度評価で訓練された代理モデルの出力を補助対象として活用する。
提案手法の有効性は, CIFAR-10, CIFAR-100, SVHNデータセットを用いた広範囲な実験により確認された。
論文 参考訳(メタデータ) (2022-07-12T05:26:09Z) - Adversarial Robustness with Semi-Infinite Constrained Learning [177.42714838799924]
入力に対する深い学習は、安全クリティカルなドメインでの使用に関して深刻な疑問を提起している。
本稿では,この問題を緩和するために,Langevin Monte Carlo のハイブリッドトレーニング手法を提案する。
当社のアプローチは、最先端のパフォーマンスと堅牢性の間のトレードオフを軽減することができることを示す。
論文 参考訳(メタデータ) (2021-10-29T13:30:42Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Adversarial Robustness Guarantees for Random Deep Neural Networks [15.68430580530443]
逆の例は、正しく分類された入力に非常に近い誤った分類された入力です。
任意の$pge1$に対して、分類境界からの任意の入力の$ellp$距離は、入力の$ellp$ノルムの入力時間の次元の平方根の1つとしてスケールする。
この結果は、敵の例を理論的に理解する上での基本的な進歩であり、ネットワークアーキテクチャと敵の摂動に対する頑健性との関係を理論的に解明する道を開くものである。
論文 参考訳(メタデータ) (2020-04-13T13:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。