論文の概要: Input Validation for Neural Networks via Runtime Local Robustness
Verification
- arxiv url: http://arxiv.org/abs/2002.03339v1
- Date: Sun, 9 Feb 2020 10:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 14:15:56.751158
- Title: Input Validation for Neural Networks via Runtime Local Robustness
Verification
- Title(参考訳): 実行時局所ロバスト性検証によるニューラルネットワークの入力検証
- Authors: Jiangchao Liu, Liqian Chen, Antoine Mine and Ji Wang
- Abstract要約: 本稿では,実行時局所ロバスト性検証を用いてニューラルネットワークの入力を検証することを提案する。
実験により,ニューラルネットワークを敵の例から保護し,精度を向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 2.7977756042028785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local robustness verification can verify that a neural network is robust wrt.
any perturbation to a specific input within a certain distance. We call this
distance Robustness Radius. We observe that the robustness radii of correctly
classified inputs are much larger than that of misclassified inputs which
include adversarial examples, especially those from strong adversarial attacks.
Another observation is that the robustness radii of correctly classified inputs
often follow a normal distribution. Based on these two observations, we propose
to validate inputs for neural networks via runtime local robustness
verification. Experiments show that our approach can protect neural networks
from adversarial examples and improve their accuracies.
- Abstract(参考訳): 局所ロバスト性検証は、ニューラルネットワークがロバストなwrtであることを検証する。
特定の距離内の特定の入力に対する摂動。
この距離ロバスト性半径と呼んでいます
正当分類入力のロバスト性半径は、特に強敵攻撃による攻撃を含む誤分類入力のロバスト性半径よりもはるかに大きいことが観察された。
別の観察では、正しく分類された入力のロバスト性半径はしばしば正規分布に従う。
これら2つの観測に基づいて,実行時局所ロバストネス検証によるニューラルネットワークの入力検証を提案する。
実験により,ニューラルネットワークを敵の例から保護し,精度を向上させることができることがわかった。
関連論文リスト
- Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - Trust, but Verify: Robust Image Segmentation using Deep Learning [7.220625464268644]
医用画像分割のためのディープニューラルネットワークの出力を検証する手法について述べる。
より深いニューラルレグレッションネットワークを用いた従来のセグメンテーション評価手法は偽陰性に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-10-25T20:55:07Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - pseudo-Bayesian Neural Networks for detecting Out of Distribution Inputs [12.429095025814345]
重みよりも分布を学習する代わりに、推定時に点推定と摂動重みを用いる擬似BNNを提案する。
全体として、この組み合わせは、推論時にOODサンプルを検出するという原則的な手法をもたらす。
論文 参考訳(メタデータ) (2021-02-02T06:23:04Z) - Probing Predictions on OOD Images via Nearest Categories [97.055916832257]
ニューラルネットワークが未確認のクラスや破損したイメージから画像を分類する際のアウト・オブ・ディストリビューション(OOD)予測挙動について検討する。
我々は、トレーニングセットにおいて、最も近い隣人と同じラベルで分類されたOOD入力の分数を計算するため、新しい測度、最も近いカテゴリ一般化(NCG)を導入する。
我々は、OODデータがロバストネス半径よりも遥かに遠くにある場合でも、ロバストネットワークは自然訓練よりも一貫してNCG精度が高いことを発見した。
論文 参考訳(メタデータ) (2020-11-17T07:42:27Z) - Adversarial Robustness Guarantees for Random Deep Neural Networks [15.68430580530443]
逆の例は、正しく分類された入力に非常に近い誤った分類された入力です。
任意の$pge1$に対して、分類境界からの任意の入力の$ellp$距離は、入力の$ellp$ノルムの入力時間の次元の平方根の1つとしてスケールする。
この結果は、敵の例を理論的に理解する上での基本的な進歩であり、ネットワークアーキテクチャと敵の摂動に対する頑健性との関係を理論的に解明する道を開くものである。
論文 参考訳(メタデータ) (2020-04-13T13:07:26Z) - Exploiting Verified Neural Networks via Floating Point Numerical Error [15.639601066641099]
検証者は、ニューラルネットワークが空間内のすべての入力に対して特定の特性を保証するかどうかに答えようとしている。
浮動小数点誤差の無視は、実際に体系的に活用できる不健全な検証につながることを示す。
論文 参考訳(メタデータ) (2020-03-06T03:58:26Z) - Utilizing Network Properties to Detect Erroneous Inputs [0.76146285961466]
我々は線形SVM分類器を訓練し、事前学習されたニューラルネットワークの隠れおよびソフトマックス特徴ベクトルを用いて誤データを検出する。
以上の結果から,これらのデータ型は一般に正しい例から線形に分離可能なアクティベーション特性を示すことが示唆された。
我々は、さまざまなデータセット、ドメイン、事前訓練されたモデル、および敵対的攻撃にまたがって、我々の発見を実験的に検証した。
論文 参考訳(メタデータ) (2020-02-28T03:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。