論文の概要: {\epsilon}-weakened Robustness of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2110.15764v1
- Date: Fri, 29 Oct 2021 13:27:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 18:24:46.602466
- Title: {\epsilon}-weakened Robustness of Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークのepsilonによるロバスト性向上
- Authors: Pei Huang, Yuting Yang, Minghao Liu, Fuqi Jia, Feifei Ma and Jian
Zhang
- Abstract要約: 本稿では,深層ニューラルネットワーク(DNN)の信頼性と安定性を解析するための,$varepsilon$-weakened robustnessの表記法を提案する。
我々は、$varepsilon$-weakened robustness decision problem is PP-complete and give a statistical decision algorithm with user-controllable error bound。
また、品質問題の解析にもその可能性を示します。
- 参考スコア(独自算出の注目度): 9.183179469739194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a notation of $\varepsilon$-weakened robustness for
analyzing the reliability and stability of deep neural networks (DNNs). Unlike
the conventional robustness, which focuses on the "perfect" safe region in the
absence of adversarial examples, $\varepsilon$-weakened robustness focuses on
the region where the proportion of adversarial examples is bounded by
user-specified $\varepsilon$. Smaller $\varepsilon$ means a smaller chance of
failure. Under such robustness definition, we can give conclusive results for
the regions where conventional robustness ignores. We prove that the
$\varepsilon$-weakened robustness decision problem is PP-complete and give a
statistical decision algorithm with user-controllable error bound. Furthermore,
we derive an algorithm to find the maximum $\varepsilon$-weakened robustness
radius. The time complexity of our algorithms is polynomial in the dimension
and size of the network. So, they are scalable to large real-world networks.
Besides, We also show its potential application in analyzing quality issues.
- Abstract(参考訳): 本稿では,ディープニューラルネットワーク(dnn)の信頼性と安定性を分析するために,$\varepsilon$-weakened robustnessの表記法を提案する。
敵の例がない場合の「完全」安全な領域に焦点を当てた従来のロバストネスとは異なり、$\varepsilon$-weakened robustnessは、敵の例の比率がユーザ指定の$\varepsilon$で制限される領域に焦点を当てている。
より小さな$\varepsilon$は、失敗する確率を小さくする。
このようなロバスト性の定義の下で、従来のロバスト性が無視される領域に対して決定的な結果を与えることができる。
我々は,$\varepsilon$-weakened robustness decision problemがpp完全であることを証明し,ユーザ制御可能な誤差境界を持つ統計的決定アルゴリズムを与える。
さらに、最大$\varepsilon$-weakened robustness radiusを求めるアルゴリズムを導出する。
アルゴリズムの時間的複雑さは、ネットワークの次元と大きさの多項式である。
そのため、大規模な実世界ネットワークにスケーラブルである。
さらに,品質問題を解析する上での応用可能性も示す。
関連論文リスト
- Almost Minimax Optimal Best Arm Identification in Piecewise Stationary Linear Bandits [55.957560311008926]
そこで本研究では,各文脈の平均値によって腕の質を計測するPSLBモデルを提案する。
PS$varepsilon$BAI$+$は、$varepsilon$-optimal armを、確率$ge 1-delta$と最小限のサンプルで識別することが保証される。
論文 参考訳(メタデータ) (2024-10-10T06:15:42Z) - Bayesian Inference with Deep Weakly Nonlinear Networks [57.95116787699412]
我々は,完全連結ニューラルネットワークによるベイズ推定が解けることを示す物理レベルの厳密さを示す。
我々はモデルエビデンスを計算し、任意の温度で1/N$で任意の順序に後続する手法を提供する。
論文 参考訳(メタデータ) (2024-05-26T17:08:04Z) - Robust Graph Neural Networks via Unbiased Aggregation [18.681451049083407]
グラフニューラルネットワーク(GNN)の敵対的堅牢性は、強い適応攻撃によって発見されたセキュリティの誤った感覚のために疑問視されている。
私たちは、その堅牢性と限界を理解するために、統一されたロバストな見積もりポイントを提供する。
論文 参考訳(メタデータ) (2023-11-25T05:34:36Z) - Sample Complexity of Neural Policy Mirror Descent for Policy
Optimization on Low-Dimensional Manifolds [75.51968172401394]
深部畳み込みニューラルネットワーク(CNN)を用いたNPMDアルゴリズムのサンプル複雑性について検討した。
NPMDの各イテレーションでは、値関数とポリシーの両方をCNNによってうまく近似することができる。
NPMDは状態空間の低次元構造を利用して次元の呪いから逃れることができることを示す。
論文 参考訳(メタデータ) (2023-09-25T07:31:22Z) - Deep neural network expressivity for optimal stopping problems [2.741266294612776]
最適な停止問題は、最大$varepsilon$の誤差を、最大$kappa dmathfrakq varepsilon-mathfrakr$の深いReLUニューラルネットワークによって近似することができる。
このことは、ディープニューラルネットワークが最適な停止問題を解決するために使用されるとき、次元性の呪いに悩まされないことを証明している。
論文 参考訳(メタデータ) (2022-10-19T10:22:35Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Sample Complexity of Nonparametric Off-Policy Evaluation on
Low-Dimensional Manifolds using Deep Networks [71.95722100511627]
深層ニューラルネットワークを用いた強化学習における非政治的評価問題について考察する。
ネットワークサイズを適切に選択することにより、マルコフ決定過程において低次元多様体構造を利用することができることを示す。
論文 参考訳(メタデータ) (2022-06-06T20:25:20Z) - Certifiably Robust Interpretation via Renyi Differential Privacy [77.04377192920741]
我々はRenyi差分プライバシー(RDP)の新しい視点から解釈堅牢性の問題を研究する。
まず、証明可能で証明可能なトップ$k$ロバスト性を提供する。
第二に、提案手法は既存の手法よりも実験的堅牢性を$sim10%$で提供する。
第3に,ロバスト性と計算効率のトレードオフを円滑に行うことができる。
論文 参考訳(メタデータ) (2021-07-04T06:58:01Z) - On the stability of deep convolutional neural networks under irregular
or random deformations [0.0]
深い畳み込みニューラルネットワーク(DCNN)のための位置変形下の堅牢性は、大きな理論的および実用的な関心事です。
ここでは、追加の正規性仮定なしに、$tauin Linfty(mathbbRd;mathbbRd)$のフィールドでこの問題に取り組みます。
マルチレゾリューション近似空間の信号に対して、u_s$ at scale $s$, stability in $|tau|_linfty/sll 1$ in the regime $|tau|_
論文 参考訳(メタデータ) (2021-04-24T16:16:30Z) - Towards Deep Learning Models Resistant to Large Perturbations [0.0]
敵対的堅牢性は、機械学習アルゴリズムの必須特性であることが証明されている。
とよばれるアルゴリズムは、大きくても合理的で摂動のマグニチュードが与えられたディープニューラルネットワークのトレーニングに失敗することを示した。
論文 参考訳(メタデータ) (2020-03-30T12:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。